Suche
Close this search box.

Die neun Grundsätze für nachhaltige Datenqualität

Heute sind Daten wesentlicher Gegenstand operativer Prozesse und dispositiver Entscheidungen, sowie neuer Produkte und Dienstleistungen. Datengesteuerte Unternehmen müssen sich Gedanken darüber machen, diesen Produktionsfaktor zu pflegen und weiterzuentwickeln.

Datengesteuerte Unternehmen brauchen verlässliche Daten

In dem Maße wie Unternehmen die Relevanz von Daten für ihr Geschäft erkennen, führt dies zu neuen Stakeholdern und Erwartungen sowie zu einem Wandel im Umgang mit Daten und Analytik. 

Künftige analytische Landschaften weisen eine zunehmende Heterogenität auf: Einerseits durch die Sammlung, Aufberei­tung, Analyse und Visualisierung von unterschiedlich strukturierten Daten aus verschiedenen internen und externen Quellen, aber auch andererseits durch zusätz­liche analytische Lösungen, die auf und neben dem Data Warehouse oder direkt in den operativen Systemen laufen.

Es liegt auf der Hand, dass mit dieser Entwicklung die Bedeutung verlässlicher Nutzdaten und konsistenter Stammdaten wächst, da die Notwendig­keit zur Abbildung einer einheitlichen und verlässlichen Basis für analytische Anforderungen zur Optimierung der bestehenden Prozesse oder Innovation des Geschäfts nicht nur weiterbesteht, sondern immer wichtiger wird. 

Ein institutionalisiertes Datenqualitäts- und Stammdaten­management sind wesentliche Voraussetzungen für jedes datengesteuerte Unternehmen.

Die Grundsätze für das Datenqualitätsmanagement

BARC führt regelmäßig Marktbefragungen durch und betreut Unternehmen in ihren Digitalisierungsprojekten. Die folgenden Grundsätze für das Datenqualitätsmanagement fassen die dabei ermittelten wesentlichen Erkenntnisse zum Status Quo der Datenqualität in Unternehmen zusammen. 

Mittels dieser Grundsätze können sich Unternehmen für die Relevanz verlässlicher Daten sensibilisieren und Initiativen zur Optimierung ihrer Datenqualität starten:

1. Daten haben aus diversen Gründen immer Fehler

Fehler in Daten entstehend durch Eingabefehler von Menschen (ca. fünf Prozent aller manuellen Eingaben sind durchschnittlich fehlerhaft), Verarbeitungsfehler (Rechen-, Übertragungs-, Datenformatfehler), bewusste Falscheingabe/Betrug (z. B. Mitarbeiter-Bonus-Systeme mit Prämien für Neukunden führen zu mehr Dubletten).

Zudem ändert sich die Wirklichkeit, die durch die Daten abgebildet werden soll (z. B. bei einem Umzug wird die Adressinformation in der Datenbank in diesem Moment falsch). Daneben kann die fachliche Aussagekraft durch die Art der tech­nischen Modellierung, Ablage, Nutzung oder Anzeige der Daten mangelhaft sein.

2. Die Güte der Daten/ Datenqualität definiert sich aus dem Verwendungskontext

Die benötigte Güte von Daten ergibt sich nicht aus absolut gültigen Qualitätsmaßstäben, sondern aus dem Verwendungskontext (z. B. Kundendaten, die einerseits für die Berechnung einer Kundenbonität und andererseits zur Kundensegmentierung im Zielkundenmarketing genutzt werden. Im ersten Fall müssen strengere Regeln für die Datenqualität gelten, weil der Kunde direkt (negativ) betroffen sein kann. Im letzteren Fall halten sich die Auswirkungen mangelnder Datenqualität in Grenzen, da die Konsequenzen wahr­scheinlich nicht direkt spürbar sind.

3. Daten brauchen Öffentlichkeit, um die Qualitätsmängel zu identifizieren

Datenfehler im ERP-System werden z. B. dort nicht immer entdeckt, da nicht alle Daten in diesem System verarbeitungsrelevant sind; sie zeigen sich erst in der Anzeige, z. B. in einem Bericht. Gerade referentielle Fehler werden erst offensichtlich, wenn alle Daten gemeinsam verarbeitet oder angezeigt werden.

4. Die Bereinigung der Fehler sollte immer so nah wie möglich am Entstehungsort der Daten erfolgen

Fehler sollten lieber bei der Eingabe entdeckt werden als später nach der Verarbeitung (z. B. indem man Vorkehrungen trifft, dass nur gültige Werte erfasst werden durch Dublettenprüfungen, Prüfung von Geschäftsregeln, vordefinierte Auswahlwerte etc.)

Die neun Grundsätze für nachhaltige Datenqualität
Gefällt Ihnen dieser Beitrag?
Wir haben noch viel mehr davon! Schließen Sie sich über 25.775 Data & Analytics Professionals an, um der Konkurrenz einen Schritt voraus zu bleiben.

5. Datenqualitätsmanagement erfolgt primär in den Dimensionen Organisation, Prozesse und Technologie

Datenqualitätsmanagement erfolgt in der Organisation z. B. durch Verantwortlichkeiten, Organisationeinheiten, Anforderungsmanagement; in Prozessen z. B. durch Richtlinien, Anwenderprofile, Anwendungsfälle; in Technologie z. B. in der Architektur, Software, durch Konzepte und Einsatzprinzipien.

6. Organisation und Prozesse sind wichtiger als Technologie

Organisatorische Aspekte haben einen größeren Einfluss auf die Datenqualität als technische. Prozesse sind mindestens so wichtig wie Tools.

7. Verantwortung für Daten muss im Fachbereich liegen und geklärt werden

Datenqualitätsmanagement ist keine IT-Aufgabe. Be­währt haben sich die Management-Rolle „Data Owner“, der die Qualitätskriterien, ggfs. aufgrund gesetzlicher Anforderungen (Aufbewahrungsfristen, Datenschutz) u. Ä. definiert und kontrolliert; sowie die operative Rolle eines „Data Steward“ zur laufenden Überwachung und Bereinigung von Daten.

8. Datenqualitätsmanagement muss alle Daten umfassen

Datenqualitätsmanagement muss transaktionale Geschäftsdaten, Stammdaten, Maschinendaten und von Menschen generierte Daten umfassen.

9. Datenqualität wird automatisch schlechter und muss daher ständig überwacht und verbessert werden

Daten „altern“ und müssen ständig gepflegt werden. Datenqualitätsmetriken helfen, den Qualitätsstand zu überwachen.

Nicht nur datengesteuerten Unternehmen erkennen schmerzlich, dass der Produktionsfaktor „Daten“ genauso wie die anderen Produktionsfaktoren „Arbeit“, „Boden“ und „Kapital“ nicht per se in der richtigen Quantität und Qualität zur Verfügung steht, sondern verwaltet, gepflegt und weiterentwickelt werden muss. 

Nach der Ermittlung des Status Quo der innerbetrieblichen Datenqualität, können Unternehmen mit mittels Justierung der Organisation, Optimierung der Prozesse und Verbesserung der technologischen Unterstützung die Datenqualität effizient und nachhaltig steigern, sowie langfristig sichern.

The Data Management Survey
Nutzen Sie Software für Data Intelligence, Data Catalogs & Marketplaces, Cloud Data Platforms, Data Observability & Quality, Data Warehouse Automation oder Data Product Engineering? Dann würden wir gerne Ihre Erfahrungen dazu hören!
Nehmen Sie jetzt an der weltweit größten Umfrage zum Thema Data Management teil:

Weitere Inhalte entdecken

Ein Beitrag von:

Timm Grosser
Data, BI, Analytics oder CPM Software gesucht? Hier finden Sie führende Lösungen im Vergleich!