Die Welt der Datenanalysen wandelt sich derzeit massiv. Die klassische BI-Organisation kommt durch die zunehmende Vielfalt und Agilität von Analytics-Anwendungen an ihre Grenzen. Viele Unternehmen sehen im
Data Mesh den geeigneten Lösungsansatz. Voraussetzung dafür ist ein fortgeschrittener Reifegrad der datengetriebenen Organisation.
An die Datenauswertung im Unternehmen werden heute immer größere Anforderungen gestellt.
Data & Analytics-Plattformen verarbeiten nicht mehr nur strukturierte Daten in klassischen BI-Analysen, sondern auch IoT-, GPS- oder Webdaten. Der Output können Reports zur internen Steuerung oder als Service für Partner, Lieferanten oder Kunden sein, aber auch Datentöpfe zur weiteren Erforschung für Data Scientists. Oder es werden direkt weitere Systeme für KI- und ML-Anwendungen gespeist. Neue Technologien, mächtige Storage- und Processing-Engines sowie leistungsfähige Applikationen sind dabei als Cloud-Lösungen auch für mittelständische Unternehmen erschwinglich und lassen sich heute flexibel nach Bedarf skalieren.
Das zentral angesiedelte BI Competence Center, das bislang die Entwicklung und das Datenmanagement rund um ein Data Warehouse erledigt hat, kommt in diesem umfassenden Analytics-Szenario an seine Grenzen. Einzelne Teams können die erforderliche Vielfalt an fachlichem und technologischem Spezialwissen nicht abdecken. Hinsichtlich der hohen Umsetzungsdynamik neuer Use Cases erweisen sie sich außerdem zunehmend als Bottleneck.
Daten als Asset bestimmen die Systemkonzeption
Das
Prinzip des Data Mesh bietet hier passende Lösungsansätze. Data Mesh stellt die Daten als Wertschöpfungsfaktor in den Mittelpunkt der Architekturkonzeption. Daten sollen als „Datenprodukte“ prozess- und systemübergreifend im Unternehmen zur Verfügung gestellt werden. Die Grundidee besteht darin, Daten als Asset für die Organisation zu begreifen und Business Usern hochwertige Datenprodukte für ihre Zwecke zugänglich zu machen, damit sie diese optimal nutzen können.
Anzeige
Mit der
Excel-Vorlage „Rollierende Liquiditätsplanung auf Wochenbasis“ erstellen Sie schnell ein Bild ihrer operativen
Liquiditätslage für die nächsten (bis zu 52) Wochen. Die Datei erlaubt nicht nur die Eingabe aller voraussichtlichen Zahlungsein- und -ausgänge (Plan-Daten), sondern berücksichtigt auch die Anfangs- und Schlussbestände auf den Konten (IST-Daten).
Preis 47,60 EUR ....
Download hier >>
Diesen Ansatz verfolgt auch die Self-Service BI schon seit Jahren. Neu ist bei Data Mesh allerdings die konsequente Delegation der Verantwortung und Kompetenzen in die dezentrale Organisation: Data Mesh versteht sich als
soziotechnischer Ansatz zur Erstellung einer dezentralen Datenarchitektur. Entwicklungsteams erhalten die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten ihrer fachlichen Domäne. Die Verlagerung in fachlich geschnittenen Domänenteams löst das Engpass-Problem eines einzelnen zentralen Analytic-Teams. Zugleich vervielfacht sie die Entwicklungsressourcen, erhöht damit das mögliche Umsetzungstempo neuer Use Cases und gewährleistet darüber hinaus die geforderte fachliche Expertise in der jeweiligen Domäne.
Data Lakehouse unterstützt Data Mesh
Die Dateninfrastruktur für die Domänenteams wird in Form einer Datenplattform nach dem Self-Service-Gedanken bereitgestellt. Im Gegensatz zur klassischen Data-Warehouse-Architektur mit zentralisierten Datenströmen handelt es sich hier um eine domänenorientierte dezentrale Architektur für analytische Daten. Die Definition von Data Mesh zielt eher auf die
Governance und Organisation des datengetriebenen Unternehmens ab als auf technologische Aspekte. Es gibt aber eine Kernarchitektur, die sich zur Umsetzung von Data Mesh besonders eignet:
Das
Data Lakehouse unterstützt die dezentrale Arbeit mit Datenprodukten. Durch die Trennung von Storage und Computing bietet es eine hohe Flexibilität zur Einrichtung verschiedener Domänen mit jeweils eigenen Datenprodukten auf einem gemeinsamen Datenlayer. Ein heterogener Technologie-Stack greift dabei über Open Table Format auf Daten aus verschiedenen Quellen zu und bereitet sie für Use Cases wie BI, ML, Data Science oder Data Engineering in diversen Domänen auf. Unter Berücksichtigung einer stringenten Access Control lassen sich die Datenquellen auf diese Weise verschiedenen Teams für ihre Auswertungen zugänglich machen. Datensilos werden vermieden und domänenübergreifende Datenabfragen unterstützt. Das verteilte Computing ermöglicht es zudem, unvorhergesehene Lastspitzen aus anderen Domänen abzufangen.
Reifegrad der dezentralen Governance als Erfolgsfaktor
Gemäß Definition basiert Data Mesh auf den
vier Grundprinzipien Domain Ownership, Data Products, Self-Service und Federated Governance. Die verteilte Governance ist in diesem Kontext der wesentliche Erfolgsfaktor für die Etablierung von Data Mesh. Im Rahmen der Governance legen die beteiligten Teams gemeinsame Standards und Regeln fest, um ihre Zusammenarbeit, die Harmonisierung der Daten und Sicherheitsanforderungen zu gewährleisten.
Aufgaben wie das Qualitätsmanagement und die Klassifikation von Daten, Security, Schnittstellen-Verwaltung oder die Definition und Verwaltung von Datenprodukten sind über die gesamte Organisation verteilt. Die Verantwortlichkeiten müssen hier klar geregelt sein. QUNIS hat dafür ein dezidiertes Rollenmodell entwickelt, das sich seit Jahren in Data & Analytics-Projekten bewährt. Das Rollenmodell legt unter anderem das Ownership für Domänen, Datenprodukte oder Datenobjekte wie „Kunden“, „Artikel“ oder „Partner“ fest. Datenexperten wie Data Owner, Data Steward und das Data Governance Board arbeiten dabei mit Funktionen eines BI- oder erweiterten
Analytics-Rollenmodells zusammen. Dazu gehören zum Beispiel die Rollen End User, Power User, Solution Architect, Data Engineer mit DataOps, Data Architect sowie Data Scientist mit MLOps.
Über das Rollenmodell kann der Data-Mesh-Gedanke bis hin zu den DevOps etabliert werden. Die Verankerung und Durchsetzung der Rollen und einer starken Governance sind die Voraussetzung dafür, dass die verschiedenen Teams orchestriert zusammenarbeiten, qualitativ hochwertige Datenprodukte geliefert werden und der weitgehende Self-Service im Rahmen zuverlässiger Standards funktioniert.
Die Umsetzung von Data Mesh steht und fällt mit dem
Reifegrad dieser Datenorganisation. Diese Organisation ist funktionsübergreifend und deckt sich damit nicht unbedingt mit der üblichen Einteilung in Geschäfts- oder Fachbereichen. Daher ist die Mitwirkung des Management Boards bei der Kontrolle und Etablierung der datengesteuerten Organisation und Architektur unbedingt notwendig.
Data Mesh setzt sich durch
Unternehmen verstehen, dass Daten immer mehr zur Wertschöpfung beitragen. Die kluge Nutzung und Auswertung der Daten bringen den entscheidenden Wettbewerbsvorteil. Für größere Konzerne und auch für viele mittelständische Unternehmen ist erweiterte Analytics daher inzwischen selbstverständlich. Data Mesh bietet die Möglichkeit, sich in diesem Bereich agiler aufzustellen. QUNIS sieht daher derzeit eine große Dynamik und viel Kraft am Markt, das verteilte Organisations- und Architekturkonzept im Unternehmen umzusetzen. In den Projekten zeigt sich, dass das Data Lakehouse hierbei eine große Hilfe ist, weil die Technologie das flexible Splitten von Datenräumen erlaubt und die Verteilung von Verantwortung für Datenprodukte unterstützt.
Autor:
Steffen Vierkorn ist Geschäftsführer der QUNIS GmbH. Seine Schwerpunkte liegen in der Architekturkonzeption von Data & Analytics-Systemen, der Entwicklung von BI-, Advanced-Analytics- und Big-Data-Strategien sowie dem Aufbau adäquater Organisationen. Neben seiner Tätigkeit bei QUNIS lehrt Steffen Vierkorn an der TU München und ist Trainer für die CA controller akademie.
Erstellt von (Name) E.R. am 18.12.2024
Geändert: 18.12.2024 15:38:56
Autor:
Steffen Vierkorn
Bild:
Steffen Vierkorn
|