August 2022
Der schnelle Zugriff auf dringend benötigte Daten für unternehmenskritische Entscheidungen bleibt oft trotz massiver Investitionen in den Ausbau der Analytics-Landschaft schwierig. Data Fabric verspricht mit erstaunlich innovativen Ansätzen dem entgegenzuwirken. Es ist ein Konzept, das als integriertes Gewebe (Fabric) von Daten aus unterschiedlichsten Quellen dient. Es bietet einen unternehmensweit uneingeschränkten, schnellen Datenzugang über alle Analytics-Plattformen und Applikationen hinweg.
80 Prozent der Unternehmen beklagen einen unflexiblen und komplexen Datenzugriff aufgrund von Datensilos. Die Datenqualität ist häufig schlecht und die verfügbaren Daten veraltet. Große Teile von Daten im Unternehmen - wie zum Beispiel lokale, aktuelle Kundenbedarfs- oder kurzfristige Materialverfügbarkeitsdaten eines Lieferanten - können oft nicht genutzt werden oder sind nur mit hohem manuellem Aufwand miteinander kombinier- und auswertbar.
Spezifische und kurzfristige Fragestellungen, zum Beispiel zu Auswirkungen von Lieferrisiken für bestimmte Rohstoffe aufgrund tagesaktueller, politischer Ereignisse, können oft nur unzureichend oder gar nicht beantwortet werden.
Die üblichen Wartezeiten für neue Berichtanforderungen sind mit mehreren Wochen dafür einfach zu lange. BI-Self-Service funktioniert in dem Fall nur, wenn alle benötigten Datenquellen bereits in der Analytics-Landschaft verfügbar sind.
Schlimmer noch, den betroffenen Nutzer:innen sind manchmal die benötigten Datenquellen oder deren Herkunft gar nicht bekannt. Und selbst wenn diese bekannt wären, gäbe es Probleme bei der Überwachung des Datenzugriffs auf Grund der fehlenden Data Governance.
Data Fabric erhöht damit die Daten-Transparenz und das Verständnis für alle wichtigen Unternehmensdaten. Darüber hinaus erlauben Data Fabric-Anwendungen eine maximale Datenverfügbarkeit und vereinfachten Datenzugriff auf weitgehend alle relevanten Datenquellen im Unternehmen, kombiniert mit der dafür nötigen, einheitlichen Autorisierung. Vereinfachtes Hinzufügen und Integrieren neuer Daten sowie Self-Service zur Weiterverwendung bestehender Data Assets erhöhen die Produktivität und Agilität der Mitarbeitenden im Fachbereich und in der IT gleichermaßen.
Die notwendige, spezifische Herangehensweise und Orchestrierung der Data Fabric-Komponenten sowie deren Unterschied zu einem herkömmlichen DWH oder Data Lake wird im Folgenden transparent.
Aktuell werden die mit Data Fabric verbundenen Erwartungen noch nicht ausreichend durch einzelne Software-Anbieter erfüllt. Die hier gezeigte Darstellung orientiert sich an der Definition von Data Fabric und den damit verbunden Anforderungen. Vorangehende Konzepte wie zum Beispiel Data Mesh, welche eine stärkere Autonomie bei der Entwicklung von Data Assets fordern, können sinnvolle Schritte auf dem Weg zur einer Data Fabric-Anwendung sein, sind aber nicht zwingend erforderlich.
Die steigende Anzahl an Datenquellen und Datenquelltypen stellt hohe Anforderungen an die Integrationsfähigkeit von Data Fabric. Typische Beispiele sind hier ERP-Systeme, Data Warehouses, SQL / Oracle Datenbanken und polystrukturierte Daten, die vor allem in Data Lakes gespeichert werden. Data Fabric verspricht, all diese Daten mit Unterstützung von AI auf einfache Art und Weise zu integrieren.
Bei der Integration und Aufbereitung von Daten wird dabei zwischen einer virtuellen Integration mit SQL Push-down und der physikalischen Integration unterschieden. Die Datenvirtualisierung spielt dabei eine zentrale Rolle, wenn es um Self-Service Data Provisioning durch die Endanwender:innen geht.
Das automatisierte und intelligente Sammeln und Aufbereiten von fachlichen und technischen Metadaten aller aktuell und zukünftig verbundenen Datenquellen ist wesentlich für das Management von Unternehmensdaten. Gesammelt werden zum Beispiel Data Lineage-Informationen, Tabellenstrukturen, Feldinformationen und fachliche Beschreibungen. Dabei werden Metadaten nicht nur erhoben, sondern auch AI-gestützt kategorisiert, klassifiziert und dienen somit als Basis für Knowledge Graphs und die Implementierung von Data Governance-Anforderungen.
Der Trend geht weg von der Bereitstellung vorgefertigter Berichtsinhalte hin zu qualitätsgesicherten, vertrauenswürdigen, verständlichen, auffindbaren und nützlichen Datentöpfen. Dies bedeutet, dass Data Assets über einen Data Catalog im internen Unternehmensportal bereitgestellt werden und für alle Endanwender:innen gleichermaßen zugänglich sind. Je nach Bedarf können die ausgewählten Data Assets weiterverarbeitet werden, sei es für Reporting-, AI- & Planungszwecke, mobile Anwendungen oder der Entwicklung von Digital Products oder Micro-Services.
Die Geschwindigkeit, Einfachheit und Flexibilität bei der Nutzung von Alltags-Apps wie zum Beispiel Google, die Endanwender:innen aus ihrem privaten Umfeld gewohnt sind, spiegelt sich leider nicht im Geschäftsalltag wider. Es vergehen teilweise Wochen zwischen dem Einreichen einer fachlichen Anforderung und der technischen Umsetzung. Data Democracy beziehungsweise neue Self-Service Ansätze wollen diesem Problem entgegenwirken und durch den Einsatz von organisatorischen Änderungen (zum Beispiel Data Mesh-Konzepten) sowie neuen technischen Möglichkeiten für erhöhte Verfügbarkeit von Daten sorgen. Mit der Erhöhung der Datenverfügbarkeit für Nutzer:innen steigt gleichzeitig der Bedarf an Data Governance zur Festlegung und Durchsetzung von allgemeinen Spielregeln sowie Data Security.
Data Governance und der Aufbau von modernen Analytics-Applikationen geht Hand in Hand. Allerdings ergibt sich sehr schnell ein Spannungsfeld zum Beispiel aus Self-Service Anforderungen von Endanwender:innen und der Notwendigkeit von Data Security, Data Quality und einer hohen Zuverlässigkeit von Data Fabric. Zur Lösung dieses Problems ist der Einsatz von intelligenten Data Governance Tools mit Data Catalogs und dem Abbilden von Governance-Prozessen notwendig. Durch eine automatisierte Datenklassifizierung kann unter anderem die Data Security wesentlich vereinfacht und weitestgehend automatisiert angewendet werden. Der hohe Automatisierungsgrad ist ein wesentlicher Erfolgsfaktor, um Data Governance nicht als Bremse im Prozess sondern als ordnende Funktion über alle relevanten IT-Applikationen hinweg zu verstehen.
Der Ansatz schafft maximale Transparenz und Verständnis für die im Unternehmen vorhandene Datenbasis in „Self-Service“-Form. Unterschiedlichste Unternehmensdaten können auf einfache Weise so miteinander verbunden werden, dass sie schnell und zielgerichtet Geschäftsanforderungen abdecken können.
Data Scientisten oder Data Engineers werden so von lästigen Tätigkeiten befreit und können sich auf wertschöpfende sowie innovative Aufgaben fokussieren.
BearingPoint hilft Ihnen dabei, die richtigen Einsatzmöglichkeiten von Data Fabric in Ihrem Unternehmen zu identifizieren und deren volles Potential zu entfalten. Gleichzeitig analysieren wir den benötigten Reifegrad von Data Management in ihrem Unternehmen, um den richtigen Ansatz von Data Fabric zu definieren.
Durch die Erstellung eines maßgeschneiderten Konzepts und individuellem Vorgehen bilden wir die Voraussetzungen für die zielgerichtete und effiziente Einführung von Data Fabric.