2012/1 | Fachbeitrag | Datenqualität

Hohe Datenqualität – die Basis für den Unternehmenserfolg

von Dr. Ch. Klingenberg

Inhaltsübersicht:


Erste Abhilfe bei mangelnder Datenqualität schaffen diverse – und durchaus hochwertige und nützliche – Datenqualitäts-Lösungen. Damit es aber nicht bei einer immer wiederkehrenden Symptom-Behandlung und immer wiederkehrenden Kosten bleibt, muss der Blick auf die Daten tiefer gehen. Die Ursache des Mangels muss gefunden und beseitigt werden. Anbieter und Kunden von Datenqualitätslösungen sollten sich daher über die jeweiligen Anforderungen, die an die Unternehmensstammdaten gestellt werden, im Klaren sein. Was müssen die Datensätze beinhalten? In welcher Form sollen sie dargestellt werden? Welche Business-Regeln müssen eingehalten werden? Was wird systemseitig gefordert? Und besonders wichtig: Gelten in allen Unternehmensbereichen die gleichen Anforderungen oder benötigen der Vertrieb und der Support unterschiedliche Inhalte und Formate?

Die Anforderungen an die Datenqualität sind in jedem Unternehmensbereich andere. Sie wechseln also mit dem Datennutzer. Man spricht hier vom „different view of data“ im Gegensatz zum „single view of customer“, der nur die Daten und nicht deren Verwendung im Blick hat. Das bedeutet auch, dass man per se nicht von guter oder schlechter Datenqualität sprechen kann – entscheidend ist, ob die Datenqualität den jeweiligen Anforderungen der Nutzer gerecht wird, das heißt ob die Daten „fit for use“ sind. Die Rolle des Datennutzers definiert, welche Daten in welcher Form benötigt werden; er steht im Mittelpunkt.

Für die Implementierung von Datenqualitätslösungen heißt das, dass der erste Schritt eine präzise Untersuchung und Darstellung des Status quo der vorhandenen Daten und der an sie gestellten Anforderungen sein sollte.

Datenqualitäts-Check – einen ersten Überblick verschaffen

Ein Datenqualitäts-Check ermöglicht einen ersten schnellen Überblick über die Stammdaten in einem Unternehmen. Dabei wird ein repräsentativer Ausschnitt der Daten primär unter Datenqualitäts-Dimensionen wie Vollständigkeit, Fehlerfreiheit und Eindeutigkeit untersucht. Besonderen Wert legt man auf die Namens- und die Adresselemente: Sind die Namen vollständig (alle „Pflicht“-Felder sind ausgefüllt)? Sind die Adressen postalisch korrekt (gültige Anschriften)? Liegen Dubletten vor – und wenn ja, sind sie gewollt und dahingehend gekennzeichnet oder handelt es sich um Fehler? Die Ergebnisse werden im Anschluss in Form von Statistiken aufbereitet und mit aussagekräftigen Beispielen ergänzt. Das Ergebnis des Datenqualitäts-Checks hilft Unternehmen dann, einen ersten Eindruck über den tatsächlichen Zustand ihrer Daten aus der „Single view of customer“-Perspektive zu erhalten. Der festgestellte Verschmutzungsgrad ist ein Indikator für die Notwendigkeit einer Datenbereinigung – und legt das weitere Vorgehen fest.

Validität unternehmensweit prüfen

Der erste Überblick genügt meist nicht, er ist aber hilfreich, um zu erkennen, wo der größte Handlungsbedarf besteht. Eine fundierte Analyse der Gesamtheit der Stammdaten – von den Datensätzen bis hin zu spezifischen Datenfeldern wie beispielsweise Telefonnummern, Kundenumsatz oder weiterer anhängender Daten – sollte der nächste Schritt sein. Auch die Business-Regeln darf man nicht aus den Augen verlieren – sind sie noch aktuell und relevant beziehungsweise werden sie korrekt umgesetzt? Bevor man in medias res geht, sollten jedoch Analyse-Anbieter, Unternehmensleitung und die Leiter der Fachabteilungen in einem initialen Workshop den Rahmen und die Ziele der Analyse festlegen. Mögliche Diskussionsthemen sind die Datenstruktur, deren Sinngehalt, Konsistenz, Eindeutigkeit, Klarheit und Korrektheit sowie die einflussnehmenden Businessregeln.

Sind die Kriterien und Ziele der Untersuchung festgelegt, kann die technische Analyse erfolgen. Möglichst unternehmensweit wird dann die Belastbarkeit des Datenmaterials überprüft. Daran sollte sich ein weiterer Workshop anschließen, in dem die Analyse-Ergebnisse und erste Vorschläge zur Optimierung der Datenqualität vorgestellt werden. Außerdem können nun noch präzisere und applikationsspezifischere Anforderungen an die Daten definiert werden.

Prozesse analysieren – Schwachstellen aufdecken

Für eine umfassende und zielführende Analyse, gerade bei einer sehr heterogenen IT-Landschaft, kann es sinnvoll sein, noch eine Stufe tiefer in die Datensätze und Systeme einzudringen. Ziel einer solchen Analyse ist es, die Entstehungsbedingungen und -prozesse von Daten aufzuzeigen, um eventuelle Schwachstellen, die zu einer Verschlechterung der Datenqualität führen, erkennen zu können. Das ist besonders hinsichtlich langfristiger Maßnahmen zur Optimierung der Datenqualität relevant. Hier rücken dann auch die einzelnen Datennutzer und deren Bedürfnisse, „different views of data“ in den Mittelpunkt. Daher werden Fragestellungen zur Datenqualität wie Verständlichkeit, Übersichtlichkeit und Zugänglichkeit untersucht, aber auch die Einschätzung der Fachabteilungen und einzelner Datennutzer über die Glaubwürdigkeit und Belastbarkeit ihrer Daten dokumentiert. Anbieter für Datenqualitätslösungen sollten hier über Consultants eng mit ihren Kunden zusammenarbeiten, um gemeinsam die involvierten Systeme und Prozesse besser erkennen und beschreiben zu können. Dieser Ist-Zustand kann dann gegen die vorher ausgearbeiteten idealen Anforderungen an die Datenqualität abgeglichen werden.

Außerdem sollte man den Nutzer bei der Arbeit – Dateneingabe, Datenpflege und Datennutzung – über die Schulter schauen. Im konkreten Anwendungsfall lassen sich Optimierungspotenziale am effizientesten identifizieren. Hier lässt sich auch feststellen, ob die Daten inhaltlich und formal so präsentiert werden, dass die täglichen Aufgaben effektiv durchgeführt werden können. Gerade bei der Analyse und Bewertung der Entstehungs- und Arbeitsprozesse von und mit Daten, ist man als Lösungs-Anbieter und als Kunde auf den Sachverstand und die kommunikativen Fähigkeiten von Consultants angewiesen. Analyse-Software kann da nur ein Hilfsmittel sein.

Fitte Daten auch in der Zukunft

Marketing-Abteilungen beispielsweise legen Wert auf korrekte Anschriften für Mailing-Aktionen, während Support-Mitarbeiter vor allem auf die Aktualität und Vollständigkeit der Daten in den CRM-Systemen angewiesen sind. Wieder andere Abteilungen stellen weitere und andere Anforderungen an ihre Datenhaltungssysteme. Ob die Qualität der Daten gut oder schlecht ist, lässt sich nur mit Hilfe der Datennutzer und nur für ihren speziellen Anwendungsfall feststellen. Nach einer umfassenden Analyse können nun nicht nur Aussagen zum allgemeinen Zustand der Datenqualität gemacht werden – auch die individuellen Anforderungen der Fachabteilungen und die prozessualen Schwachstellen sind bekannt.

Jetzt kann man bewerten, ob Daten „fit for use“ sind. Und erst auf Basis einer solchen Analyse lassen sich wirklich profunde und somit langfristig wirksame Strategien entwickeln, die die Datenqualität dauerhaft und unternehmensweit sichern. Eine weitere Symptom-Behandlung mit Ad-hoc-Lösungen ist dann nicht mehr nötig. Dies spart Kosten für aufwändige Nachbearbeitungen von Daten und gibt finanzielle Planungssicherheit. Außerdem lassen sich auf dieser Grundlage Implementierungskosten für Datenqualitätslösungen senken, da Umfang und Aufwand der Implementierung besser abgeschätzt werden können. So wird auch der ROI schneller erreicht. Als Nebeneffekt kann man zudem belastbare Aussagen über die Effektivität von Arbeitsprozessen treffen – und hier mögliche Einsparpotenziale aufdecken.

Diese Artikel könnten Sie auch interessieren

Data Scientists – heiß begehrte Datenexperten

21. Jahrhunderts gekürt. Überall wird behauptet, dass Data Scientists zu einem festen Bestandteil des Geschäftslebens werden. Auch an den Hochschulen werden immer mehr Kurse zum Thema angeboten. Mit Sicherheit ist der Data Scientist wichtig und begehrt, aber es gibt auch Möglichkeiten für Unternehmen, die Qualifikationen für die Position eines Data Scientist bei ihren vorhandenen Mitarbeitern aufzubau...

Weiterlesen

Business Discovery: Mit Self Service große Datenmengen meistern

Die eigentliche Arbeit bei Big Data liegt nicht in der Auswertung der Daten, sondern in der Vorbereitung der Datenanalyse. Das A und O ist es, das Ziel festzulegen und genau zu prüfen, welche Fragestellungen die Analyse beantworten soll. Denn wer das Ziel nicht kennt, findet auch nicht den Weg dorthin. Dazu sind ein umfassendes Verständnis des jeweiligen Geschäftsmodells und der verschiedenen Geschäftsf...

Weiterlesen

Unternehmenssteuerung braucht ein strategisches Informationsmanagement

Bei Entscheidungen auf allen Ebenen, können Unternehmen heute mehr Informationen aus den unterschiedlichsten Quellen nutzen als je zuvor. Die Informationsflut muss dazu in einem geregelten Workflow kanalisiert werden. Notwendig ist daher ein strategisches Informationsmanagement, das die Aufgaben rund um Business Intelligence, Datenintegration und Datenintegrität bündelt, um somit bessere Entscheidungen z...

Weiterlesen

ERP: Planzahlen & Finanzströme tagesaktuell im Blick — auch per App

Deutschland ist auf Expansionskurs: Acht von zehn mittelständischen Betrieben generieren einen signifikanten Teil ihres Umsatzes im Ausland. Dies ergibt die aktuelle Studie „Triebwerk des Erfolgs – der deutsche Mittelstand im Fokus". Um im internationalen Markt zu bestehen, müssen Manager ihre Geschäftstätigkeiten, Planzahlen und Finanzströme tagesaktuell kontrollieren. Zudem ist die Konsolidierung...

Weiterlesen

Big Data – das „Öl des 21. Jahrhunderts“

Wenn Big Data das „Öl des 21. Jahrhunderts“ ist, wie Analysten gerne titulieren, so entspricht die Datenaufbereitung dem Raffinerieprozess und das Business Process Management (BPM) dem Versorgungssystem, adäquat einer Tankstelleninfrastruktur. BPM liefert den raffinierten Treibstoff für die Geschäftsprozesse. Aber die Big-Data-Industrie steckt derzeit noch in den Kinderschuhen, ähnlich wie die Öli...

Weiterlesen

Moderne Bankensteuerung braucht eine einheitliche Datenbasis

WISSENplus
Schnell verfügbare und möglichst umfassende Informationen sind ein Essential für langfristig erfolgreiche Bankgeschäfte. Angesichts des umfassenden Wandels in der Bankenwelt und der komplexen gesetzlichen Anforderungen, auf die sich Geldinstitute künftig einzustellen haben, wächst das Erfordernis des Wissensmanagements gerade auch für kleinere und mittelständische Banken....

Weiterlesen

Gar nicht mehr so wolkig: Datenverluste in der Cloud sind vermeidbar

WISSENplus
Die Vorteile des Cloud Computings liegen auf der Hand: In der Wolke gespeicherte Daten sind praktisch überall und jederzeit abrufbar, lassen sich bequem austauschen und die IT-Kosten sinken. Doch gerade kleine und mittlere Unternehmen (KMU) schöpfen diese Möglichkeit noch nicht voll aus. Während die einen die Angst vor Datenverlusten oder Virenangriffen davon abhält, auf Cloud-Speicherung zu setzen, Ve...

Weiterlesen

Kein Prozess ohne Daten – Datenqualität bestimmt die Prozessqualität

Wir stehen heute an der Schwelle vom rein marktgetriebenen hin zum datengetriebenen Unternehmen. Daten werden immer wichtiger und Information gilt inzwischen mit als wichtigstes Unternehmensgut. Big Data verändert in diesem Zusammenhang die Art und Weise, wie Unternehmen ihre Entscheidungen treffen, denn Big-Data-Analytik kann neue Einsichten geben und bisher unbekannte Strukturen und Verhaltensmuster zum ...

Weiterlesen