Die Architektur ist ein integraler Bestandteil der BI-Strategie, die im TOM sowohl technologisch als auch datenarchitektonisch behandelt werden sollte. Um eine robuste Basis zu schaffen und eine nahtlose Integration in die Organisationsstrukturen zu gewährleisten, sind verschiedene Aspekte zu berücksichtigen. Dieser Prozess beginnt mit der Festlegung geeigneter Architekturschichten, setzt sich über die Entscheidungsfindung bei der Datenmodellierung fort und endet bei der klaren Delegation der Verantwortung für die Verwaltung der verschiedenen IT-Systeme sowie deren fachliche Dateninhalte über verantwortliche Rollen mit damit verknüpften Rollen in der Organisation (z. B. systemübergeifende Data Owner je Datendomäne und operativ damit betraute Data Stewards sowie Technical Systems Owners).

Die Systemintegration konzentriert sich darauf, wie die Datenarchitektur gestaltet werden soll. Es gibt zwei Möglichkeiten: Entweder die Integration vieler Systeme in einer zusammengeführten Struktur oder die Schaffung eines heterogeneren Systems, das eine höhere Flexibilität bietet. Diese Entscheidung ist zentral, um sicherzustellen, dass die folgenden Schichten des TOMs gut aufgebaut sind. Bei der Datenmodellierung ergibt sich ein ähnliches Szenario. Ein integriertes Datenmodell aus verschiedenen Unternehmensbereichen erhöht nicht nur die Harmonisierung, sondern ermöglicht auch eine erhebliche Vereinfachung der operativen Steuerung. Ein dezentralerer Ansatz hingegen erhöht die Flexibilität und Individualität der einzelnen Datendomänen, wodurch Systeme und Daten spezifisch für die notwendigen Anforderungen angepasst werden können.

Die Auswahl des technologischen Ansatzes beeinflusst maßgeblich die Ausgestaltung der Bereiche. Ein Data Lake repräsentiert einen monolithischen Ansatz und ein stark integriertes System, während eine Data Fabric einen modularen und agileren Integrationsansatz bietet. DWHs verfügen über ein hochintegriertes Datenmodell, das alle Bereiche des DWHs abbildet. Ein sogenannter Hub-and-Spoke-Ansatz isoliert die Datenmodellierung pro Teilbereich (Spoke) und ermöglicht so mehr Freiheit. Der technologische Ansatz hängt stark mit Systemintegration und Datenmodellierung zusammen und beeinflusst die Wahl der Technologien.

Der Algorithmus- und Semantik-Layer baut auf den Entscheidungen zur Modellierung und Speicherung der Daten innerhalb eines oder mehrerer Systeme auf und bereitet die Daten auf. Der Algorithmus-Layer umfasst Algorithmen und Modelle, die auf den gespeicherten Daten angewendet werden, um Erkenntnisse zu gewinnen, Vorhersagen zu treffen oder Muster zu identifizieren. Diese Algorithmen können verschiedene Analysemethoden nutzen, wie z. B. ML, KI oder statistische Modelle.

Der Algorithmus-Layer ist entscheidend für die Datenverarbeitung und -interpretation, um wertvolle Erkenntnisse für das Unternehmen zu generieren. Der semantische Layer dient als Zwischenschicht zwischen den Datenquellen und den Anwendungen, die auf diese Daten zugreifen. Er bietet eine vereinfachte Darstellung der Daten und sorgt für einheitliche und konsistente Ergebnisse, unabhängig von der zugrunde liegenden Datenstruktur.

Der semantische Layer ist Fachbereichs-orientiert aufgebaut und kann Metadaten, Datenlexika, Business-Objekte und -Klassen umfassen, die den Benutzern helfen, die Daten besser zu verstehen und darauf zuzugreifen. Damit spielt dieser Layer eine wichtige Rolle bei der Steuerung, Integration und Verwaltung von Daten und erleichtert die Abfrage und Analyse der Daten für Endbenutzer.

Die Anwendungsschicht ist der letzte Bereich in der BI-Architektur. Sie besteht aus verschiedenen Anwendungen und Tools, die von Benutzern genutzt werden, um auf Daten zuzugreifen, Analysen durchzuführen und Berichte zu erstellen. Es ist wichtig, dass die Anwendungen und Tools einfach zu bedienen sind und eine klare Struktur aufweisen. Die Anwendungen können unterschiedliche Formen annehmen, wie beispielsweise Dashboard- und Reporting-Tools. Diese Tools ermöglichen es Benutzern, Daten visuell darzustellen. Sie können Dashboards erstellen, die wichtige Kennzahlen, Trends und Visualisierungen enthalten. Außerdem können sie standardisierte oder ad-hoc-Berichte erstellen. Zusätzlich bieten sie Predictive Analytics und ML-Tools. Diese Tools ermöglichen es Benutzern, Vorhersagemodelle zu erstellen und zu validieren. Sie basieren auf historischen Daten und statistischen Methoden und dienen dazu, zukünftige Ereignisse oder Trends vorherzusagen. Ad-hoc-Abfragewerkzeuge erlauben es Benutzern, Daten flexibel abzufragen und Analysen durchzuführen, ohne auf vordefinierte Berichte oder Dashboards angewiesen zu sein.

Abb. 2: Schichtenmodell in der BI-Architektur

Dieser Inhalt ist unter anderem im Finance Office Professional enthalten. Sie wollen mehr?