Business Application Research Center

Experten für Business Intelligence, Analytics, Big Data, CRM und ECM

BARC-Newsletter

Die Erfolgsfaktoren für zufriedenstellende Datenqualität und Stammdaten - Teil 3: Die Prozesse

Die Erfolgsfaktoren für zufriedenstellende Datenqualität und Stammdaten - Teil 3: Die Prozesse

RssRss

08.01.2020

Die Erfolgsfaktoren für zufriedenstellende Datenqualität und Stammdaten - Teil 3: Die Prozesse

Prozesse als Erfolgsfaktor für zufriedenstellende Datenqualität und Stammdaten

Ob sie es nun wollen oder nicht: Unternehmen befinden sich inmitten des Digitalisierungszeitalters. In dieser BARC-Blogreihe wollen wir Unternehmen dabei unterstützen, endlich ihre Datenqualität auf ein zufriedenstellendes Niveau zu bringen. Hierfür haben wir drei Erfolgsfaktoren identifiziert: So helfen Ihnen Prozesse dabei, Ihre Datenqualität zu steigern.

Um im digitalen Unternehmen den wichtigen Produktionsfaktor „Daten“ zu pflegen und weiterzuentwickeln, müssen die verschiedenen beteiligten Mitarbeiter gemäß ihrer Rollenbeschreibung entsprechende Prozesse wahrnehmen. Hierbei sind Linienaufgaben von Projekten zu unterscheiden. Linienaufgaben sind dauerhaft zu gewährleisten. Projekte sind zielgerichtete, einmalige Vorhaben, deren Ergebnisse ggf. wieder operationalisiert werden, zum Beispiel als Erweiterung der Linienaufgaben.

Wertstiftende Prozesse sind das Herz jedes Unternehmen – das gilt auch für datengetriebene Unternehmen, die Erfolgschancen in Daten ausnutzen möchten. Die konkreten Prozesse, die die definierten Rollen in den Linienaufgaben wahrnehmen, sind zwar unternehmensindividuell auszubilden, doch sollten folgende Themenbereiche besondere Aufmerksamkeit erhalten:

  • fachliche oder technische Betreuung und Unterstützung (z. B. hinsichtlich der Bestimmung von Datenquellen; Auswahl, Profilierung und Bewertung von Daten; Pflege von Geschäftsbegriffen in Business Glossaren)
  • Umsetzung (z. B. Pflege von Daten und Regeln; Dokumentation neuer Anforderungen; Umsetzung von Datenintegrationsroutinen zur Befüllung von Data Warehouses)
  • Entscheidung (z. B. über unternehmensweit oder abteilungsweit genutzte Geschäftsbegriffe; Priorisierung von Projekten)
  • Betrieb (der Infrastruktur und der Systeme)
  • Monitoring (z. B. der Datenqualität, Einhaltung von zeitlichen Vorgaben wie zur Befüllung des Data Warehouses)

Daneben sind die beschriebenen Rollen typischerweise in folgende Projekte eingebunden:

  • BI-Projekt (z. B. Ausbildung neuer Data Marts einschließlich Pflege des Business Glossars hinsichtlich Geschäftsbegriffen, Dimensionen und Fakten)
  • Datenqualitäts-Projekt (z. B. Bereinigung von Kundendaten; Zusammenfassen von externen Kundendaten mit den eigenen)
  • Data-Science-Projekt (z. B. Unterstützung von Statistikern bei der Wahl und Interpretation von Daten)

Datengetriebenen Unternehmen ist die Steigerung der Datenqualität auf das notwendige Niveau oder die Sicherung des bereits erreichten Datenqualitätslevels besonders wichtig. Um dies zu erreichen, ist beispielsweise der sogenannte Datenqualitätszyklus eine sehr hilfreiche Methode.

Er beschreibt den iterativen Prozess zur Analyse, Bereinigung und Überwachung der Datenqualität und verdeutlicht, dass Datenqualität kein einmaliges Projekt ist. Es bietet sich an, die unterschiedlichen Phasen des Datenqualitätszyklus von den definierten Rollen (siehe Erfolgsfaktor für verlässliche Stammdaten: Organisation) wahrnehmen zu lassen.

Daneben sei noch darauf hingewiesen, dass die heute verfügbare Technologie das Konzept des Datenqualitätszyklus aufgreift und entsprechende Funktionen in mehr oder weniger tiefen und breiten Umfang zur Verfügung stellt.

Der Datenqualitätszyklus besteht aus folgenden Phasen:

Abbildung: Sicherstellung von Datenqualität im Stammdatenmanagement

Die Analyse

Zunächst werden die Stammdaten analysiert: Welche Werte können die Daten annehmen und sind diese valide? Welche Einträge sind beispielsweise im Feld „Anrede“ hinterlegt? Gibt es bestimmte Muster oder Häufigkeiten in den Werten, die auf ein prozessuales oder anderweitiges Problem hindeuten? Ist z. B. bei 80 Prozent der Kunden „Abrissunternehmen“ im Feld „Firmenkategorie“ hinterlegt, könnte dies der Standardwert bei der Kunden-Neuanlage sein, dessen korrekte Setzung anscheinend nicht stattfindet.

Zudem sind die Datenmodelle der beteiligten Applikationen zu synchronisieren − beispielsweise die des führenden CRM-Systems mit dem des ERP-System und mit dem des Webshops. Neben der Ist-Aufnahme der unterschiedlichen beteiligten Datenbanksysteme mit ihren Tabellen und Spalten, muss dabei die Entscheidung getroffen und implementiert werden, wie die Systeme sich mit Änderungsinformationen versorgen.

Die Bereinigung

Das Bereinigen der Stammdaten geschieht meist unter Nutzung von Geschäftsregeln. Ein Grundstock befindet sich meist im Lieferumfang der Datenqualitätsumgebung, welcher an die eigenen Bedürfnisse angepasst werden kann. Die Lösung erstellt für die zu untersuchenden Daten auf Basis dieser Regeln beispielsweise Listen mit Dubletten-Vorschlägen, die teilweise direkt über die Anwendung zusammengeführt werden können.

In Umgebungen mit mehreren beteiligten Systemen ist ein übergreifendes Konzept einzurichten, wie die Daten jeweils aufbereitet und im Falle ihrer Löschung entsorgt werden.

Die Anreicherung

Ein Anreichern der Daten beispielsweise aus anderen beteiligten Systemen um Geokoordinaten oder soziodemographische Informationen kann sich für marketing- oder entscheidungsorientierte Prozesse anbieten. Hier sollten auch wieder die Potentiale der beteiligten Systeme ausgenutzt werden, sodass neue Informationen bzw. Spezialinformationen von Sondersystemen auch an Systeme weitergeleitet werden, die von diesen Informationen profitieren können.

Die Überwachung und Kontrolle

Um die einmal erlangte hohe Stammdatenqualität auch beizubehalten, ist deren Überwachung und Kontrolle wichtig. Hierbei werden Datenqualitäts-Kennzahlen definiert und über entsprechende Prozesse verfolgt. Diese Prozesse sollten das automatisierte Speichern der Daten je nach ihrer Nutzung auf dem jeweils möglichst kostengünstigen Speichermedium unterstützen (Data Life Cycle Management).

Am „Ende“ eines Zyklus erfolgt der fließende Übergang der ersten originären Datenqualitätsinitiative zur zweiten Phase, der laufenden Datenqualitätssicherung. Datenqualität ist kein Einmal-Projekt, sondern laufend auf Basis der definierten Datenqualitäts-Kennzahlen zu prüfen und zu sichern.

Festzuhalten bleibt, dass über die Jahre in der Praxis Best Practices für die Schaffung einer hohen Datenqualität entstanden sind und als Modelle wie der Datenqualitäts-Zyklus heute dokumentiert sind.

Unternehmen mit Bedarf an der Optimierung ihrer Datenqualität sollten sich an diesen Methoden orientieren und die eigenen innerbetrieblichen Prozesse entsprechend erweitern bzw. anpassen. Eine Verbesserung der Datenqualität kann nur durch das unmittelbare „Leben“ der definierten Prozesse durch die verantwortlichen Rollen geschehen.

Big-Data-Initiativen beschleunigen dabei den Bedarf, Datenqualität zu operationalisieren: Das Silo-Denken wird mehr und mehr aufgeweicht. Fachbereiche benötigen ein besseres Verständnis für die internen Abläufe, Zusammenhänge zwischen den innerbetrieblichen Gegebenheiten und Entwicklungen sowie Informationen zu dem Markt und der eigenen Branche. Damit dies gelingt, müssen Daten nicht nur auffindbar und verfügbar sein, sondern die Fachbereiche müssen sich auch auf bestimmte Daten verlassen können. „Typische“ Big-Data-Daten wie aggregierte Marketingdaten aus sozialen Medien können diese Qualität nicht verlässlich liefern. Deshalb sind entsprechend Prozesse zu entwickeln, die dazu beitragen, dass diejenigen Daten in einer guten Qualität zur Verfügung vorliegen zu haben, die unternehmensübergreifend in verschiedensten Auswertungen und Analysen in Kontext zueinander verwendet werden.

Nur datengetriebene Unternehmen können sich im Digitalisierungszeitalter wettbewerbsfähig aufstellen. In der zunehmend komplexen Datenwelt brauchen Unternehmen verlässliche Säulen. Der erste Schritt zu einer zufriedenstellenden Datenqualität und sicheren Stammdaten sind eine Datenstrategie und Rahmenbedingungen. Vernetzen Sie sich mit anderen Daten-Experten, besuchen Sie spannende Workshops und lösen Sie Use Cases rund um die Themen Data-Science & Machine Learning, Data-Engineering & Architecture, Data-Visualization & Analytics. Das alles erwartet Sie auf dem DATA festival 2020. Sichern Sie sich jetzt Ihr Ticket!