Business Application Research Center

Experten für Business Intelligence, Analytics, Big Data, CRM und ECM

BARC-Newsletter

Die Erfolgsfaktoren für zufriedenstellende Datenqualität und Stammdaten - Teil 4: Technologie

Die Erfolgsfaktoren für zufriedenstellende Datenqualität und Stammdaten - Teil 4: Technologie

RssRss

27.01.2020

Die Erfolgsfaktoren für zufriedenstellende Datenqualität und Stammdaten - Teil 4: Technologie

Ob sie es nun wollen oder nicht: Unternehmen befinden sich inmitten des Digitalisierungszeitalters. In dieser neuen BARC-Blogreihe wollen wir Unternehmen dabei unterstützen, endlich ihre Datenqualität auf ein zufriedenstellendes Niveau zu bringen. Hierfür haben wir drei Erfolgsfaktoren identifiziert. So hilft Ihnen Technologie dabei, Ihre Datenqualität zu steigern.

Ob ein Unternehmen über eine hohe Datenqualität verfügt, hängt unmittelbar damit zusammen, ob mittels einer entsprechenden Organisation die relevanten Verantwortlichen für deren fachliche und technische Sicherstellung eingerichtet sind. Zudem sollte in den Prozessen die Erhaltung einer hohen Datenqualität sichergestellt sein. Softwaretechnik kann die beteiligten Rollen in ihren Prozessen unterstützen.   

Entsprechende Technologien können bereits bei der Dateneingabe den neu anzulegenden Datensatz gegen den bestehenden Adressbestand testen und Unschärfe-Tests vornehmen.

Hierbei prüft beispielsweise eine Datenqualitäts-Laufzeitumgebung, ob ein „Martin Meyer“, der gerade im operativen System neu angelegt werden soll, nicht doch der bereits bestehende „Martin Meier“ sein kann, der bereits qualitätsgesichert im System gepflegt ist. Über eine sich öffnende Vorschlagsliste kann der Benutzer eine Entscheidung zum weiteren Vorgehen treffen.

Oft ist die Datenqualität des bestehenden Datenbestands nicht zufriedenstellend und weist beispielsweise Dubletten, fehlende oder falsche Daten auf. Dann ist eine entsprechende Bereinigung durch mittlerweile etablierte und über die Jahre gereifte Softwarelösungen möglich.

Diese orientieren sich zumeist an den typischen DQ-Funktionen, welche zum Beispiel der DQ-Zyklus aufzeigt. Hierzu gehören Funktionen für die Datenanalyse, -bereinigung, -anreicherung sowie -überwachung und Kontrolle. Big-Data-Anforderungen des Fachbereichs, der beispielsweise zusätzliche Daten bei der Analyse einbeziehen will, lassen sich nur erfüllen, wenn diese Daten ebenfalls eine gewisse Datenqualität haben.

Für derartige Analysen sind Data-Profiling-Funktionen nützlich. Sie helfen dabei folgende Fragen zu beantworten:

  • Welche Strukturen liegen in den Daten vor?
  • Welche Min- und Max-Werte liegen vor? Welche Lücken gibt es in den Daten?
  • Welche Muster haben die Daten? Besteht ein numerisches Feld, wie eine Rechnungsspalte, tatsächlich nur aus numerischen Werten entsprechend dem Muster NNNNNN)?
  • Wie verteilen sich die Daten auf die Zeit, auf Kunden, Kundengruppen oder Produktklassen?

Datenqualität ist vordergründig eine organisatorische und methodische Disziplin. Diesem Umstand sollte auch die Software entgegenkommen. Die notwendigen Datenqualitätsfunktionen sollten in für die jeweiligen Anwenderrollen geeigneten Benutzeroberflächen umgesetzt sein.

Die Datenqualität wird von diversen Rollen und Akteuren beeinflusst. Daher sollte eine Workflow-Unterstützung für die Definition und Umsetzung entsprechender Prozesse sorgen.

Oft lässt sich Software für Datenqualität und Masterdatenmanagement direkt in die bestehenden operativen oder dispositiven Systeme integrieren. Auf diese Weise können die bestehenden Prozesse um Datenqualitäts-Funktionen (z. B. Datenanalyse oder Dublettenprüfung) aufgerüstet und den festgelegten Rollen übergeben werden.

Die Datenlandschaft lebt: ständig werden neue Datenarten in das Unternehmen eingebracht, Kundenstammdaten wachsen um weitere Attribute, neue Geschäftspartner und deren Daten sind anzubinden. Entsprechend flexibel muss die Lösung für die Prüfung der Datenqualität sein.

Ein intuitiv benutzbares Regelmanagement-System gewährleistet die Definition von Datenvalidierungsregeln und Geschäftsregeln direkt durch den Fachbereich und die Aktivierung mittels Freigabe-Workflow.

Daten benötigen Öffentlichkeit. Sie können nur zielführend interpretiert und genutzt werden, wenn ein übergreifendes Verständnis von den unternehmensspezifischen Geschäftsbegriffen existiert (Was ist der Unterschied zwischen dem Kundenattribut „Umsatz“ und „Umsatz_bereinigt“?), deren Verfügbarkeit (In welchen Berichten werden die Geschäftsbegriffe verwendet? Wie kann man sich auf die Quelldaten verbinden?) und den Verantwortlichkeiten (Wer ist der Eigentümer der Daten? An wen wende ich mich bei Fragen oder Anforderungen?), existiert.

Business Glossare und Wikis, möglichst eng mit dem Regelmanagement-System integriert, schaffen Transparenz. Zusätzlich fördern sie die innerbetriebliche Kommunikation über festgesetzte Verantwortlichkeiten, Regeln, Kennzahlen und Definitionen.

  • Eine Versionierung bzw. eine Historisierung der Datensätze ist unter Compliance-Aspekten notwendig.
  • Monitoring-Komponenten informieren über aktuelle Geschehnisse, wie zum Beispiel die Zunahme von Dubletten oder nicht vollständig gepflegten Informationen.
  • Reporting-Komponenten unterstützen die Auswertung und übersichtliche Darstellung von relevanten Kennzahlen und Eigenschaften der Datenlandschaft. Auch sollten Berichte über die hinterlegten Definitionen und Gegebenheiten der DQ- und MDM-Umgebung generiert werden können. Das Themengebiet Reporting ist typischerweise eng verzahnt mit den angrenzenden Bereichen Metadatenmanagement, Business Glossar und Regelmanagement-System. Daher ist es eher als Querschnittsthema zu sehen.

Die dargestellten Themen sollen einen Überblick darüber geben, welche funktionale Breite aktuelle DQ- und MDM-Werkzeuge bieten. Das Unternehmen sollte individuell auf Basis seiner Anforderungen eine Priorisierung festlegen. So wird bestimmt, welche konkreten Funktionen tatsächlich relevant sind und sich wertstiftend auf den Geschäftsbetrieb auswirken.

Stellt sich die Frage nach dem „make or buy“. Gegenüber Eigenentwicklungen liefert der Werkzeugmarkt notwendige Technologie vergleichsweise preiswert.

Datenqualität und Stammdatenmanagement sind zudem keine neuen Disziplinen. Unternehmen jeder Größenklasse mussten sich immer schon um die Pflege ihrer Daten kümmern und haben entsprechende Methoden und Techniken entwickelt.

Oft entwickelt der Fachbereich aus der Not heraus mit seinem ihm bekannten Tabellenkalkulations- und Desktop-Datenbankanwendungssystemen individuelle Lösungen. So werden Funktionen nachgebildet, die den Funktionen des Datenqualitätszyklus recht nahe kommen.

Ein einfaches Data Profiling unterstützt ein Tabellenkalkulationsprogramm, indem es einfache Min-Max-Auswertungen, Filter- und Sortierfunktionen bietet. Auch Geschäftsregeln oder die Anbindung externer Datenquellen lassen sich durch verknüpfte Tabellen oder Verweise einrichten. Ein einfaches Berichtswesen ist über Diagramme umsetzbar.

Das Problem liegt darin, dass die hierbei verwendeten Büroanwendungen nicht für den DQ- und MDM-Einsatz entwickelt wurden. Es ist daher eine Eigenprogrammierung (z.B. Microsoft Visual Basic Application (VBA) in Microsoft Office oder StarOffice Basic, Python, Java und JavaScript in Apache OpenOffice) notwendig.

In der Folge führt dies zu komplexen, nicht zu überblickenden und schwer wartbaren Anwendungen. Hinzu kommen Probleme im Antwortverhalten und die organisatorische Gefahr, dass das entwickelte Werkzeug nur durch wenige Mitarbeiter beherrscht und weiterentwickelt werden kann.

DQ- und MDM-Spezialwerkzeuge hingegen bringen die notwendigen Standard-Funktionen mit und werden von ihren Anbietern ständig weiterentwickelt. Die Kosten für Softwarelizenzen und Supportbeiträge liegen regelmäßig unter dem Aufwand für die Weiterentwicklung und Wartung vergleichbarerer Eigenentwicklungen.

Zwar finden auch im Markt der DQ- und MDM-Anbieter Unternehmensübernahmen statt, doch bleibt für gewöhnlich hochwertige Technologie auch nach dem Kauf verfügbar und die bestehende Kundenbasis wird weiter betreut.

Der Markt der DQ- und MDM-Werkzeuge ist vergleichsweise heterogen. Für den DACH- Raum macht BARC 49 relevante Anbieter von Datenqualitätslösungen und 36 für Stammdatenmanagement-Technologie aus.

Die Auswahl der geeigneten Werkzeuge für die Umsetzung der DQ- und MDM-Strategie richtet sich nach den fachlichen Anforderungen und architektonischen Gegebenheiten. Herrscht hierüber Klarheit kann der Markt vorsondiert werden.

Es bietet sich an, die Lösungen der verbliebenen Anbieter in vergleichbarer Form gegenüberzustellen. Zudem sollte man Anbieter auffordern, unternehmensspezifisch relevante Aufgaben nach einem festgelegten „Drehbuch“ zu demonstrieren oder umzusetzen. Dies kann im Rahmen eines Proof-of-Concepts oder anhand einer strukturierten Anbieterpräsentation geschehen.

Auf diese Weise findet das Unternehmen das am besten passende Werkzeug. Gleichzeitig lernt es den zukünftigen Dienstleister/Softwarelieferanten besser kennen.

Nur datengetriebene Unternehmen können sich im Digitalisierungszeitalter wettbewerbsfähig aufstellen. In der zunehmend komplexen Datenwelt brauchen Unternehmen verlässliche Säulen. Eine zufriedenstellen Datenqualität und sichere Stammdaten sind dabei ein kritischer Faktor.

Mehr zu diesem Thema erfahren Sie auf dem DATA festival 2020, dem Treffpunkt für alle Datenliebhaber. Auf der Konferenz erwarten Sie spannende Use-Cases, Workshops, Tech-Deep-Dives, Panels und Networking-Sessions rund um Data und AI. Für weitere Informationen besuchen Sie uns online!