Business Application Research Center

Experten für Business Intelligence, Analytics, Big Data, CRM und ECM

BARC-Newsletter

Trends in der BI und dem Datenmanagement

RssRss

22.03.2015

Trends in der BI und dem Datenmanagement

In den letzten Jahren sind neue Technologietrends und Anforderungen hinzugekommen, welche die künftige Nutzung von Business Intelligence und das Datenmanagement maßgeblich beeinflussen werden. Die BARC-Analysten haben nachfolgend für Sie die wichtigsten Entwicklungen skizziert.

Neue Datenarchitekturen in Unternehmen

Die Anforderungen im Reporting, Analyse und bei Prognosen sind in den letzten Jahren dramatisch gestiegen und haben die bisherigen Datenarchitekturen in den Unternehmen unter Druck gebracht. Zwar verlieren bisherige Data-Warehouse-Systeme nicht ihren Wert, doch können sie nicht den gesamten Informationsbedarf mit traditionellen Reports und einer vorwiegend auf Transaktionsdaten basierenden Datenhaltung stillen. Unternehmen müssen vielmehr zusätzliche Datenquellen und Datentypen berücksichtigen, die aus neuen “Datencontainern” wie “Hadoop” stammen. Häufig werden entsprechende Big-Data-Projekte, in denen diese Daten näher untersucht werden sollen, parallel zur bisherigen Dateninfrastruktur in so genannten Sandboxes betrieben werden. Das oberste Ziel sollte aber eine gemeinsame analytische Dateninfrastruktur sein, die auf bisherige und neue Datenquellen zugreift und sie verbindet. Gerade die Ergebnisse aus der Analyse polystrukturierter Big-Data-Inhalte können Kennzahlen liefern, die bislang im Data-Warehouse-Datenmodell fehlten. Vorreiterunternehmen integrieren die entsprechenden analytischen Funktionen in ihre Unternehmendanwendungen und können so die Ergebnisse direkt in den operativen Prozessen zur Verfügung stellen.

Datenintegration, Datenqualität und Governance

Ohne konsistente, vollständige und korrekte Daten fehlt BI-Vorhaben eine solide Basis, um Entscheidungen unterstützen zu können. Die Datenintegration und das Datenqualitätsmanagement sind daher auch künftig ein Muss. Zusätzlich sollte das Datenqualitätsmanagement organisatorisch durch die Benennung von „Data Stewards“ aus den Reihen der Fachanwender gestärkt werden. Diese sind verantwortlich dafür, dass Qualitätsaspekte wie Datenstandards, Konsistenz, Korrektheit und andere eingehalten werden. Ein Programm für das Stammdatenmanagement hilft zudem, Daten unternehmensweit konsistent zu halten, und das gute alte „Data dictionary“ kann zusätzlich für einheitliche Datenbeschreibungen und -definitionen sorgen.

Ein weiteres Thema bleibt für die Zukunft der Aufbau einer Data Governance, die bislang in vielen Unternehmen ein bloßes Lippenbekenntnis ist. Auch wenn es aufwändig, ja für manchen unmöglich erscheint, Governance-Strukturen und –Prozesse in der eigenen Organisation aufzubauen, ist sie alternativlos. Dies umso mehr, da die Datenmengen und neuen Datenquellen rasant zunehmen.

BI-Strategie und Organisation

Bis heute fehlt in den allermeisten Organisationen eine ausgeprägte BI-Strategie. Diese umfasst ein Organisationsmodell, den “Business Case” (Was sind die Prioritäten aus geschäftlicher Sicht?) sowie eine Beschreibung der BI-Landschaft. Bislang scheitert dieses Vorhaben in vielen Fälle bereits in der Phase der Anforderungsanalyse, weil Business und IT nicht eng genug zusammenarbeiten und unterschiedliche Interessen verfolgen. Hilfe verspricht der Aufbau eines Cross-funktionalen BI Competence Center (BICC) oder vergleichbarer Strukturen, wie sie mittlerweile eine wachsende Zahl an Unternehmen für ihr BI-Programm geschaffen haben. Entscheidend für den Erfolg und die Wirkung eines BICC ist insbesondere die regemäßige Kommunikation mit allen „Stakeholdern“, bei der Entscheidungen, Implementierungen oder Probleme erläutert und Endanwender regelmäßig einbezogen werden (siehe auch die Ausgabe des "BI Manager" zum Thema BI Organisation).

Advanced Analysis

Neben der traditionellen Olap-Analyse haben sich in den letzten Jahren weitere Verfahren und Techniken im Markt etabliert. Gemeint sind Set-based-, Visual-, Real-time oder Predictive Analytics. Sie kommen immer häufiger zum Einsatz, weil sie heutigen Anforderungen und Anwendungsmöglichkeiten in der Datenanalyse beispielsweise in puncto Datenmengen und Geschwindigkeit besser nachkommen. Entsprechende Werkzeuge bieten oft eine am Fachanwender orientierte Arbeitsumgebung, die ihm mehr Flexibilität und Optionen bei der Informationsnutzung und -aufbereitung gibt. Speziell in Anwendungsszenarien, in denen es um zeitnahe Abfragen und eine ebenso schnelle Bereitstellung von Datenauswertungen oder Events in den operative Prozessen geht, sind Werkzeuge für Real-time- oder Streaming Analytics im Kommen. Die wohl größte Nachfrage werden aber in den kommenden Monaten Produkte für Predictive Analytics erfahren. Bei Letzterem geht es um den Einsatz von Algorithmen zur Vorhersage von Werten. Oft werden solche Produkte mit denen für Data Mining gleichgesetzt, was aber falsch ist, da Data Mining auch die Segmentierung und Assoziierung als Verfahren umfasst, die aber nicht vorhersagend oder vorausschauend sind.

 

BI Cloud, Self-Service und Discovery

Obwohl Cloud Computing schon länger im BI-Markt genutzt wird, ist die Resonanz insbesondere bei solchen Anwenderunternehmen bislang verhalten, die bereits hohe Investitionen in eigene „On-Premise“-Lösungen getätigt haben. Dort wo Unternehmen versuchen, ein Teil ihrer BI-Umgebung auszulagern, um Reporting und Dashboards in der Cloud zu erzeugen, werden in fast allen Fällen Daten genutzt, die sich bereits vorher in der Cloud befanden. Quellsysteme können etwa CRM-Lösungen, Gehaltsabrechnungslösungen oder Helpdesk-Anwendungen sein. Die Verlagerung von BI in die Cloud wird hier als eine Erweiterung der bisherigen Umgebung gesehen und nicht als eine Verlagerung interner Daten in die Wolke. Für alle anderen Unternehmen gilt, dass sie nur dann ihre BI-Infrastruktur in der Wolke neu aufbauen, wenn sich daraus signifikante Einsparungen ergeben, beispielsweise durch eine Vereinheitlichung des Portfolios oder durch geringere Lizenz- Entwicklungs- oder Hardwarekosten.

Self-Service BI (SSBI) für seinen Part wird seit längerem in Organisationen gefordert, weil IT-Abteilungen nicht mehr die steigenden Anforderungen aus den Fachbereichen zeitnah erfüllen können und aus Sicht der Nutzer zu wenig Support leisten. Allerdings wird aus SSBI in der Praxis allzu oft “Self-Help” BI, also ein Zoo aus Individualanwendungen und Tools, die sich jede Nutzergruppe selbst zusammenstellt („Schatten-IT“). Es muss daher klare Richtlinien für den Softwarekauf sowie für die Datennutzung und -verbreitung geben. Idealerweise arbeiten hierzu „Power user“ mit der IT zusammen, um die IT-Infrastruktur unter Kontrollen zu behalten.

Location Analytics

Bislang beschränkt sich die Nutzung von Ortsinformationen in BI-Vorhaben meist auf Postadressen. Ein Geo-Coding, eine tiefere Analyse von Ortsinformationen oder die Einbeziehung geografischer Informationen in den Entscheidungsprozess sind hingegen selten. Dies überrascht, weil solche Informationen in der gesamten Wertschöpfungskette nützlich wären. Gleichsam könnten Geschäfte von Ortsinformationen profitieren, um mehr über ihre Kunden zu erfahren und Lieferprozesse zu optimieren. Es wäre daher für Unternehmen lohnenswert, künftig neben Transaktionsdaten auch Technik und Wissen aufzubauen, um Geodaten zu erfassen und zu nutzen. So könnte beispielsweise im Rahmen eines Big-Data-Projekts die Analyse von Daten aus Ortungsdiensten auf Smartphones, von Sensoren, Fahrzeugen oder anderen stationären Objekten neuartige Informationen mit Ortsbezug für Kundenanalysen liefern.  

Data Science & Data Labs

Die breite Nutzung von Daten und neuer Datenquellen unter Einsatz fortschrittlicher Analyseverfahren wie der Mustererkennung oder maschinelles Lernen verspricht innovative Anwendungen und Wettbewerbsvorteile. Diese explorative Nutzung von Daten ergänzt traditionelle Business-Intelligence-Anwendungen, erfordert aber einen anderen technischen und organisatorischen Ansatz. Dieser ist eher mit dem eines Forschungslabors vergleichbar: Wissenschaftler machen Experimente, um Hypothesen bezüglich des Nutzens bestimmter Daten oder Datenmodell zu überprüfen. Solche Experten, mittlerweile oft als „Data Scientist“ bezeichnet, müssen ein umfassendes Wissen über Tools, Modelle und Daten mitbringen, das normalerweise nicht von einer Person allein abgedeckt werden kann. Ebenso wird Expertise in der Datenintegration, in Abfragesprachen und der Anwendungsentwicklung, Erfahrung mit mathematischen und statistischen Methoden mit Data Mining, Domänen - und Prozesswissen  sowie Visualisierungs- und Kommunikationskenntnisse  benötigt. Unternehmen sollten daher schon heute mit der Suche nach Spezialisten und der Schaffung entsprechender Teams beginnen.

Advanced Planning

Ein moderner Planungsansatz, wie ihn “Advanced Planning” propagiert, zielt darauf ab, bisherige Planungsprozesse effizienter, schneller, günstiger und im Ergebnis (Output) qualitativ besser zu machen. Stellschrauben hierfür sind vor allem die Integration, Fokus, Prognosen, Collaboration und Agilität (ausführliche Informationen zu Trends in der Planung und Planungswerkzeuge hält auch der aktuelle BARC "Planning Survey 15" für Sie bereit!).

Integrationsbedarf besteht in der Praxis häufig zwischen der strategischen und operativen Planung, zwischen einzelnen Teilpläne und zwischen der Planung und dem Berichtswesen/Analyse.  Darüber hinaus ist die systematische Integration mehrerer Performance-Management-Prozesse ein erstrebenswertes Ziel (Planung mit Reporting/Analyse/Dashboarding, Strategy Management und Finanzkonsolidierung).  

Ein weiterer diskutierter Ansatz zur Verbesserung der Planung ist die treiberbasierte Planung. Hier konzentriert man sich auf wesentliche Einflussfaktoren und lässt die finanziellen Konsequenzen hieraus automatisch ableiten. Konsequent umgesetzt erhält man eine Wirkungskette von den Basistreibern bis zur finanziellen Spitzenkennzahl. Eine solche Systematisierung der Wirkungsbeziehungen wird als Werttreiberbaum bezeichnet. Die treiberbasierte Planung ermöglicht eine Verringerung der Detailtiefe und Komplexität von Planungsprozesse. Ebenso hilft dieser Ansatz für Simulationen. Ferner versprechen Predictive Analytics und Methoden im Forecasting versprechen einen großen Mehrwert für den Planungsprozess. So helfen die dabei genutzten Statistikfunktionen und Algorithmen ein besseres Verständnis für die Wirkung zentraler Treiber zu entwickeln (Cause-Effect Relationship) sowie durch solide Prognosen bislang manuelle Planungs- und Forecasting-Verfahren verbessern.

 

BARC-Tagungen 2015 zu aktuellen Trends (Auswahl)

  1. Digital Transformation: SAP HANA and Beyond”, 21.April 2015, Würzburg. Wie entwickelt sich SAP HANA weiter und welche Erfahrungen und Anwendungsszenarien ergeben sich? Weitere Informationen
  2. BI Consultant Day“, 22.April 2015, in Würzburg. Überblick über aktuelle Trends im Business-Intelligence- und Datenmanagement-Markt für Dienstleister. Weitere Informationen
  3. BI- und Planungssysteme im direkten Vergleich“, 19. und 20.Mai 2015, in Würzburg. Detaillierter Einblick in die unterschiedlichen Ansätze von entscheidungsunterstützenden Softwarelösungen für Planung und Controlling sowie von Werkzeugen für Business Intelligence. Weitere Informationen

Ergänzend zu den Tagungen bietet BARC zur Vertiefung eintägige Intensivseminare. Sie finden diese Angebote bei den jeweiligen Veranstaltungsseiten unter: barc.de/events