Instaffo_160x600_e3-Skyscraper

Datenanalyse, Datenbereinigung, Datenschutz und Datenüberwachung

Die vier Musketiere der Datenqualität

Musketiere

Einer für alle, alle für einen – dieses Motto der „vier Musketiere“, es hat sich mittlerweile im allgemeinen Sprachgebrauch durchgesetzt, wenn es darum geht, deutlich zu machen, dass „Alleingänge“ nichts nützen und ein Erfolg sich nur einstellt, wenn mehrere Komponenten reibungslos ineinandergreifen. Das gilt auch für die Datenqualität.

Athos, Porthos, Aramis und D’Artagnan – so heißen die vier Musketiere in der Literatur und im Film. Auf den Bereich Datenqualität bezogen lauten ihre Namen Datenanalyse, Datenbereinigung, Datenschutz und Datenüberwachung.

Datenanalyse: Status quo der Datenqualität

Bevor Unternehmen sich überhaupt mit der Steigerung der im Unternehmen verfügbaren Kundendaten beschäftigen können, müssen sie sich zuerst einmal einen Überblick über den aktuellen Zustand ihrer Daten verschaffen.

Holger-StelzFür viele Unternehmen stellt dieser erste Schritt bereits eine große Herausforderung dar, denn in der Regel liegen die zu analysierenden Daten in unterschiedlichen, im gesamten Unternehmen verteilten Systemen.

Die wichtigste Aufgabe im Bereich der Datenanalyse ist es, verlässliche Aussagen zur Beschaffenheit und Qualität der Kundendaten zu treffen, selbst wenn es sich dabei um ein großes Datenvolumen handelt.

So geht es zum Beispiel darum, ob die richtige Information, beispielsweise die Postleitzahl, auch in dem dafür vorgesehenen Feld steht. Oder inwieweit die einzelnen Datenfelder überhaupt befüllt sind. Und ob die enthaltenen Daten auch plausibel sind.

Darüber hinaus gilt es, unternehmensspezifische Regeln und Messgrößen festzulegen, mit denen die bestehenden Datensätze angereichert werden können.

Durch den Einsatz entsprechender Filter und Segmentierungen ermöglicht die Datenanalyse außerdem das Erkennen von „Ausreißern“ oder „Auffälligkeiten“, die dann im Rahmen der weiteren Maßnahmen zur Qualitätssteigerung bearbeitet werden können.

Datenbereinigung: Konsolidierung verteilter Datensätze

Im zweiten Schritt, der Datenbereinigung, geht es dann darum, die zuvor in der Analyse festgestellten Mängel und Defizite in der Qualität zu beheben.

Dazu werden die vorhandenen Daten durch den Einsatz nativer Konnektoren aus den unterschiedlichen Quellsystemen im Unternehmen extrahiert.

Die Datensätze werden postalisch geprüft, auf doppelte und mehrfach vorhandene Datensätze hin untersucht und können ggfs. um zusätzliche Informationen wie z. B. Geo-Daten oder sekundär-statistische Information angereichert werden.

Hier wird die Grundlage geschaffen für den sogenannten „Golden Record“, die „Mutter aller Stammdatensätze“.

Datenschutz: Für eine nachhaltige Qualitätssicherung

Unter Datenschutz ist an dieser Stelle nicht der Schutz der Daten im juristischen Sinn zu verstehen, sondern Maßnahmen, die sicherstellen, dass die zuvor geschaffene hohe Qualität der Kundendaten auch aufrechterhalten und weiter ausgebaut werden kann.

Das Hauptaugenmerk wird dabei darauf gerichtet, die Daten möglichst bereits, wenn sie neu erfasst oder verändert werden, auf Fehler hin zu überprüfen.

So können dann auch Hör-, Lese- und/oder Tippfehler direkt beim Entstehen eines Datensatzes bemerkt, angezeigt und dann auch gleich korrigiert werden.

Datenüberwachung: Vertrauen ist gut, Kontrolle besser

Und letztendlich sorgt die Datenüberwachung dafür, dass die Arbeit der drei anderen Bausteine nicht umsonst war.

Geschieht dies nicht, zeigt die Erfahrung in vielen Unternehmen, dass wiederum sukzessive eine „schleichende Verschmutzung“ der Kundendaten eintritt, die in den meisten Fällen leider erst erkannt wird, wenn es zu spät sind.

Als Gründe sind Umzüge, Scheidungen, Sterbefälle, aber auch Straßen- und Ortsumbenennungen oder Eingemeindungen zu nennen.

Damit waren dann auch die in den drei anderen Phasen durchgeführten Maßnahmen und die damit verbundenen Bemühungen praktisch umsonst.

Es handelt sich hier gleichsam um eine Art Sensor für Datenqualitätsschwächen, der dafür sorgt, dass diese Schwächen frühzeitig erkannt werden, bevor diese sich im Zielsystem auswirken.

Grundlage sind dabei die vom Unternehmen selbst definierten Regeln und Richtlinien für die Datenqualität. Auch diese Vorgaben werden im Hinblick auf notwendige Veränderungen und Aktualisierungen überprüft.

Die erfolgreiche Optimierung der Kundendaten ist nur durch integriertes Vorgehen möglich. Viele Unternehmen haben mittlerweile die Bedeutung eines hohen Datenqualitätsniveaus als Voraussetzung für reibungslose Geschäftsprozesse in den unterschiedlichsten Bereichen erkannt.

Leider setzen sie dabei allerdings unterschiedliche Schwerpunkte und fokussieren ihre Bemühungen häufig nur auf bestimmte Maßnahmen. Und vergessen dabei, dass das eingangs zitierte Motto der vier Musketiere auch beim Stammdatenmanagement gilt.

Was nützt eine detaillierte Datenanalyse, wenn daraus nicht die entsprechenden Maßnahmen zur Datenbereinigung abgeleitet werden?

Und selbst die positiven Effekte einer Erstbereinigung werden schnell wieder „verwässert“ werden, wenn keine Maßnahmen zum nachhaltigen Erhalt eines hohen Datenqualitätsniveaus ergriffen werden.

Und letztendlich nützt auch das beste Monitoring im Rahmen einer Datenüberwachung nichts, wenn die Ergebnisse nicht in eine erneute Datenanalyse einfließen und damit einen erneuten Prozess zur Verbesserung der Datenqualität anstoßen.

Damit wird auch klar, dass es sich bei Initiativen zur Verbesserung der Qualität der im Unternehmen verarbeiteten Kundendaten nicht um einen zeitlich begrenzten Vorgang oder gar um eine Einmal-Aktion handelt.

Stattdessen ist ein integrierter und kontinuierlicher Closed Loop erforderlich, um eine nachhaltige Optimierung und Sicherung der Datenqualität zu erreichen: Einer für alle, alle für einen.

Das Ziel: 360-Grad-Sicht auf den Kunden

Es gibt zwar sicher einmalige Ereignisse wie den Aufbau eines neuen CRM-Systems, eine ERP-Migration oder gar eine Firmenübernahme, die eine Migration und Konsolidierung von Daten erforderlich machen und damit der Auslöser für eine Initiative zur Optimierung der Datenqualität sein können.

In den meisten Fällen geht es Unternehmen, wenn sie sich mit der Optimierung der Qualität ihrer Kundendaten beschäftigen, heute allerdings darum, sich eine möglichst präzise, vollständige und aktuelle 360-Grad-Sicht auf den Kunden zu verschaffen.

Damit sie ihre Kunden optimal durch die einzelnen Phasen der individuellen Customer Journey begleiten können.

Letztendlich spielt die 360-Grad-Sicht auf den Kunden im Handel die zentrale Rolle, wenn es darum geht, sich als attraktiver Begleiter des Kunden zu positionieren und ihn so mittelfristig an das Unternehmen zu binden.

In Zeiten eines Multi-, Omni- und Cross-Channel-Vertriebs geht es dabei darum, alle Kunden-Touch-Points – offline wie digital – mit auf den Kunden individuell abgestimmten und authentischen Informationen und Angeboten zu bedienen.

Vom Golden Record zum Golden Profile

Je digitaler der Kunde wird, desto wichtiger ist es für Unternehmen, nicht nur die Daten und Informationen zu erfassen und zu konsolidieren, die über einen Kunden im Unternehmen bekannt sind, sondern auch die „Spuren“ zu verfolgen, die der Kunde heute im Internet und den sozialen Netzwerken hinterlässt.

Mit Ground Truth hat Uniserv daher eine Lösungs- und Prozess-Methodik entwickelt, die Unternehmen entsprechend dabei unterstützt, in einem mehrstufigen Vorgehen letztendlich das Golden Profile eines jeden Kunden zu erstellen, das dessen Adressdaten, sein Kaufverhalten, seine Interessen und Vorlieben, aber auch seine Kommunikation und Interaktion mit dem Unternehmen zu einem zentralen Datensatz aggregiert.

Darüber hinaus werden in den Golden Profiles die „Spuren“ integriert, die der Kunde im Internet und den sozialen Netzwerken hinterlässt.

Sprich, die Stammdaten eines jeden Kunden (Golden Record) sowie die Bewegungsdaten (Transaktions- und Interaktionsdaten) werden zusammengeführt (Golden Profile). Ground Truth sorgt zusätzlich für eine kontinuierliche Aktualisierung dieser Daten und eine Synchronisierung der Daten über die unterschiedlichen Quellen hinweg.

Speziell für Predictive Analytics entwickelte Uniserv in Kooperation mit der Hochschule der Medien Stuttgart einen Prototyp auf der Basis des Ground Truth.

Anhand dieses Prototyp sollte die Bedeutung der Datenqualität als kritischer Erfolgsfaktor für die Güte von Prognosen veranschaulicht werden.

Fazit

Einer für alle, alle für einen: Dieser Leitsatz galt nicht nur für die vier Musketiere in der Literatur und im Film, dieser Leitsatz gilt auch und vor allem für die vier Musketiere in der Datenqualität: Datenanalyse, Datenanreicherung, Datenschutz und Datenüberwachung.

Jeder Baustein für sich erfordert eine sorgfältige Planung und Umsetzung, doch nur im reibungslosen Zusammenspiel und einer Integration zu einem Closed Loop erreicht die Datenqualität im Unternehmen ein völlig neues Niveau, das nachhaltig beibehalten und sukzessive optimiert werden kann.

Erst damit ist dann die Grundlage geschaffen für den Einsatz von Ground Truth. Und erst dann erreicht das Unternehmen letztendlich eine präzise, vollständige und aktuelle 360-Grad-Sicht auf den Kunden und somit ein Grundvertrauen in die eigene Datenqualität.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Die Meinung der SAP-Community

css.php