2012/1 | Fachbeitrag | Datenqualität

Hohe Datenqualität – die Basis für den Unternehmenserfolg

von Dr. Ch. Klingenberg

Inhaltsübersicht:


Erste Abhilfe bei mangelnder Datenqualität schaffen diverse – und durchaus hochwertige und nützliche – Datenqualitäts-Lösungen. Damit es aber nicht bei einer immer wiederkehrenden Symptom-Behandlung und immer wiederkehrenden Kosten bleibt, muss der Blick auf die Daten tiefer gehen. Die Ursache des Mangels muss gefunden und beseitigt werden. Anbieter und Kunden von Datenqualitätslösungen sollten sich daher über die jeweiligen Anforderungen, die an die Unternehmensstammdaten gestellt werden, im Klaren sein. Was müssen die Datensätze beinhalten? In welcher Form sollen sie dargestellt werden? Welche Business-Regeln müssen eingehalten werden? Was wird systemseitig gefordert? Und besonders wichtig: Gelten in allen Unternehmensbereichen die gleichen Anforderungen oder benötigen der Vertrieb und der Support unterschiedliche Inhalte und Formate?

Die Anforderungen an die Datenqualität sind in jedem Unternehmensbereich andere. Sie wechseln also mit dem Datennutzer. Man spricht hier vom „different view of data“ im Gegensatz zum „single view of customer“, der nur die Daten und nicht deren Verwendung im Blick hat. Das bedeutet auch, dass man per se nicht von guter oder schlechter Datenqualität sprechen kann – entscheidend ist, ob die Datenqualität den jeweiligen Anforderungen der Nutzer gerecht wird, das heißt ob die Daten „fit for use“ sind. Die Rolle des Datennutzers definiert, welche Daten in welcher Form benötigt werden; er steht im Mittelpunkt.

Für die Implementierung von Datenqualitätslösungen heißt das, dass der erste Schritt eine präzise Untersuchung und Darstellung des Status quo der vorhandenen Daten und der an sie gestellten Anforderungen sein sollte.

Datenqualitäts-Check – einen ersten Überblick verschaffen

Ein Datenqualitäts-Check ermöglicht einen ersten schnellen Überblick über die Stammdaten in einem Unternehmen. Dabei wird ein repräsentativer Ausschnitt der Daten primär unter Datenqualitäts-Dimensionen wie Vollständigkeit, Fehlerfreiheit und Eindeutigkeit untersucht. Besonderen Wert legt man auf die Namens- und die Adresselemente: Sind die Namen vollständig (alle „Pflicht“-Felder sind ausgefüllt)? Sind die Adressen postalisch korrekt (gültige Anschriften)? Liegen Dubletten vor – und wenn ja, sind sie gewollt und dahingehend gekennzeichnet oder handelt es sich um Fehler? Die Ergebnisse werden im Anschluss in Form von Statistiken aufbereitet und mit aussagekräftigen Beispielen ergänzt. Das Ergebnis des Datenqualitäts-Checks hilft Unternehmen dann, einen ersten Eindruck über den tatsächlichen Zustand ihrer Daten aus der „Single view of customer“-Perspektive zu erhalten. Der festgestellte Verschmutzungsgrad ist ein Indikator für die Notwendigkeit einer Datenbereinigung – und legt das weitere Vorgehen fest.

Validität unternehmensweit prüfen

Der erste Überblick genügt meist nicht, er ist aber hilfreich, um zu erkennen, wo der größte Handlungsbedarf besteht. Eine fundierte Analyse der Gesamtheit der Stammdaten – von den Datensätzen bis hin zu spezifischen Datenfeldern wie beispielsweise Telefonnummern, Kundenumsatz oder weiterer anhängender Daten – sollte der nächste Schritt sein. Auch die Business-Regeln darf man nicht aus den Augen verlieren – sind sie noch aktuell und relevant beziehungsweise werden sie korrekt umgesetzt? Bevor man in medias res geht, sollten jedoch Analyse-Anbieter, Unternehmensleitung und die Leiter der Fachabteilungen in einem initialen Workshop den Rahmen und die Ziele der Analyse festlegen. Mögliche Diskussionsthemen sind die Datenstruktur, deren Sinngehalt, Konsistenz, Eindeutigkeit, Klarheit und Korrektheit sowie die einflussnehmenden Businessregeln.

Sind die Kriterien und Ziele der Untersuchung festgelegt, kann die technische Analyse erfolgen. Möglichst unternehmensweit wird dann die Belastbarkeit des Datenmaterials überprüft. Daran sollte sich ein weiterer Workshop anschließen, in dem die Analyse-Ergebnisse und erste Vorschläge zur Optimierung der Datenqualität vorgestellt werden. Außerdem können nun noch präzisere und applikationsspezifischere Anforderungen an die Daten definiert werden.

Prozesse analysieren – Schwachstellen aufdecken

Für eine umfassende und zielführende Analyse, gerade bei einer sehr heterogenen IT-Landschaft, kann es sinnvoll sein, noch eine Stufe tiefer in die Datensätze und Systeme einzudringen. Ziel einer solchen Analyse ist es, die Entstehungsbedingungen und -prozesse von Daten aufzuzeigen, um eventuelle Schwachstellen, die zu einer Verschlechterung der Datenqualität führen, erkennen zu können. Das ist besonders hinsichtlich langfristiger Maßnahmen zur Optimierung der Datenqualität relevant. Hier rücken dann auch die einzelnen Datennutzer und deren Bedürfnisse, „different views of data“ in den Mittelpunkt. Daher werden Fragestellungen zur Datenqualität wie Verständlichkeit, Übersichtlichkeit und Zugänglichkeit untersucht, aber auch die Einschätzung der Fachabteilungen und einzelner Datennutzer über die Glaubwürdigkeit und Belastbarkeit ihrer Daten dokumentiert. Anbieter für Datenqualitätslösungen sollten hier über Consultants eng mit ihren Kunden zusammenarbeiten, um gemeinsam die involvierten Systeme und Prozesse besser erkennen und beschreiben zu können. Dieser Ist-Zustand kann dann gegen die vorher ausgearbeiteten idealen Anforderungen an die Datenqualität abgeglichen werden.

Außerdem sollte man den Nutzer bei der Arbeit – Dateneingabe, Datenpflege und Datennutzung – über die Schulter schauen. Im konkreten Anwendungsfall lassen sich Optimierungspotenziale am effizientesten identifizieren. Hier lässt sich auch feststellen, ob die Daten inhaltlich und formal so präsentiert werden, dass die täglichen Aufgaben effektiv durchgeführt werden können. Gerade bei der Analyse und Bewertung der Entstehungs- und Arbeitsprozesse von und mit Daten, ist man als Lösungs-Anbieter und als Kunde auf den Sachverstand und die kommunikativen Fähigkeiten von Consultants angewiesen. Analyse-Software kann da nur ein Hilfsmittel sein.

Fitte Daten auch in der Zukunft

Marketing-Abteilungen beispielsweise legen Wert auf korrekte Anschriften für Mailing-Aktionen, während Support-Mitarbeiter vor allem auf die Aktualität und Vollständigkeit der Daten in den CRM-Systemen angewiesen sind. Wieder andere Abteilungen stellen weitere und andere Anforderungen an ihre Datenhaltungssysteme. Ob die Qualität der Daten gut oder schlecht ist, lässt sich nur mit Hilfe der Datennutzer und nur für ihren speziellen Anwendungsfall feststellen. Nach einer umfassenden Analyse können nun nicht nur Aussagen zum allgemeinen Zustand der Datenqualität gemacht werden – auch die individuellen Anforderungen der Fachabteilungen und die prozessualen Schwachstellen sind bekannt.

Jetzt kann man bewerten, ob Daten „fit for use“ sind. Und erst auf Basis einer solchen Analyse lassen sich wirklich profunde und somit langfristig wirksame Strategien entwickeln, die die Datenqualität dauerhaft und unternehmensweit sichern. Eine weitere Symptom-Behandlung mit Ad-hoc-Lösungen ist dann nicht mehr nötig. Dies spart Kosten für aufwändige Nachbearbeitungen von Daten und gibt finanzielle Planungssicherheit. Außerdem lassen sich auf dieser Grundlage Implementierungskosten für Datenqualitätslösungen senken, da Umfang und Aufwand der Implementierung besser abgeschätzt werden können. So wird auch der ROI schneller erreicht. Als Nebeneffekt kann man zudem belastbare Aussagen über die Effektivität von Arbeitsprozessen treffen – und hier mögliche Einsparpotenziale aufdecken.

Diese Artikel könnten Sie auch interessieren

Das Datenzeitalter – die Informationsflut als Chance

Seit den 80er Jahren hat die Softwareindustrie zahlreiche Trends hervorgebracht. Viele davon sind genauso schnell wieder verschwunden, wie sie zuvor erschienen waren. Das nun angebrochene Datenzeitalter ist die bisher durchgreifendste – und interessanteste – Zeit des Wandels. Wenn man sich die Unternehmen anschaut, die derzeit ein explosionsartiges Wachstum aufweisen, so stellt man fest, dass bei fast a...

Weiterlesen

Data Scientists – heiß begehrte Datenexperten

21. Jahrhunderts gekürt. Überall wird behauptet, dass Data Scientists zu einem festen Bestandteil des Geschäftslebens werden. Auch an den Hochschulen werden immer mehr Kurse zum Thema angeboten. Mit Sicherheit ist der Data Scientist wichtig und begehrt, aber es gibt auch Möglichkeiten für Unternehmen, die Qualifikationen für die Position eines Data Scientist bei ihren vorhandenen Mitarbeitern aufzubau...

Weiterlesen

Das wertschöpfende Potenzial von Big Data nutzen

Es ist eine unumstößliche Wahrheit unserer Zeit, dass in der Geschäftswelt ohne IT nichts mehr läuft. Das Gleiche gilt übrigens für das Gesundheitswesen, die Stromversorger und den gesamten Flugverkehr. Unbestritten ist auch, dass die Daten, die in einem Unternehmen auf Basis der eigesetzten IT produziert werden, immer stärker ins Zentrum der Aufmerksamkeit rücken. Denn der wirtschaftliche Erfolg wi...

Weiterlesen

Unternehmenssteuerung braucht ein strategisches Informationsmanagement

Bei Entscheidungen auf allen Ebenen, können Unternehmen heute mehr Informationen aus den unterschiedlichsten Quellen nutzen als je zuvor. Die Informationsflut muss dazu in einem geregelten Workflow kanalisiert werden. Notwendig ist daher ein strategisches Informationsmanagement, das die Aufgaben rund um Business Intelligence, Datenintegration und Datenintegrität bündelt, um somit bessere Entscheidungen z...

Weiterlesen

Wissen in der Wolke managen

WISSENplus
Unternehmen nutzen immer häufiger Cloud-basierte externe Services zum Wissensmanagement. Aber was ist zu beachten damit sich der Mehrwert von externen Cloud Services beim Wissensmanagement auch auszahlt? Diese Frage stellen sich derzeit viele Unternehmen und werden dabei mit einer Vielfalt an komplexen Herausforderungen konfrontiert. Auf welche Parameter sollten Unternehmen, die ihr Wissen in der externen ...

Weiterlesen

ERP: Planzahlen & Finanzströme tagesaktuell im Blick — auch per App

Deutschland ist auf Expansionskurs: Acht von zehn mittelständischen Betrieben generieren einen signifikanten Teil ihres Umsatzes im Ausland. Dies ergibt die aktuelle Studie „Triebwerk des Erfolgs – der deutsche Mittelstand im Fokus". Um im internationalen Markt zu bestehen, müssen Manager ihre Geschäftstätigkeiten, Planzahlen und Finanzströme tagesaktuell kontrollieren. Zudem ist die Konsolidierung...

Weiterlesen

Gefahr erkannt – Gefahr gebannt? Sicherheitslücken rechtzeitig erkennen & schließen

Betrüger existieren seit Menschengedenken und sie verfolgen noch immer die gleichen Ziele: täuschen, betrügen, irreführen, Fakten und Prozesse manipulieren. Verändert haben sich nur die Mittel, mit denen Täuschungen durchgeführt werden, sowie die Raffinesse der Täuschungsattacken. Mittlerweile ist Betrug zu einer regelrechten Industrie geworden, deren Auswirkungen auf den globalen Handel sich jährl...

Weiterlesen