Dr. Christian Bischof, Daniela Wilfinger
Zusammenfassung
- Big Data Analytics stellt eine Erweiterung des Analysespektrums im Controlling dar, das die klassische Business Intelligence durch fortgeschrittene Analysemethoden ergänzt.
- Eine wesentliche technologische Grundlage für Big Data Analytics stellen In-Memory-Systeme dar. Sie können Massendaten in Echtzeit verarbeiten und ermöglichen sowohl zeitnahe Entscheidungen als auch belastbare Prognosen.
- Dieser Beitrag betrachtet die Nutzenpotenziale von In-Memory Big Data Analytics für das Controlling, aber auch die damit einhergehenden technologischen Herausforderungen.
- Am Beispiel der In-Memory-Plattform SAP HANA werden mit Streaming Analytics und Predictive Analytics 2 Ansätze und ergänzende Use Cases für Big Data Analytics im Controlling behandelt.
1 Vom Datenwachstum zu Big Data
Die Beschleunigung des technologischen Fortschritts basierend auf innovativen digitalen Technologien hat in den letzten Jahren zu einem exponentiellen Wachstum des Datenvolumens geführt. Diese Entwicklung wird sich weiter verstärken. Dabei sind Daten aus dem Internet und aus sozialen Netzwerken nur eine Quelle dieses gestiegenen Datenvolumens. Haupttreiber für die Datenexplosion sind mobile Apps, Cloud Computing, vor allem aber die zunehmende sensorgestützte Vernetzung von Konsumgütern und Investitionsgütern bzw. Maschinen im Rahmen von Embedded Systems sowie des Internet of Things (IoT). Einer Schätzung von IDC zufolge wird dies zu einem weltweit generierten Datenvolumen von 163 Zettabyte bis 2025 führen. Eine durchschnittlich digital vernetzte Person wird zu diesem Zeitpunkt – bewusst oder unbewusst – voraussichtlich 4.800 Mal pro Tag mit entsprechenden Geräten und Systemen interagieren, dies entspricht einer Interaktion alle 18 Sekunden.
Big Data wird somit zunehmend alle Lebensbereiche des Menschen und damit auch den Leistungsbereich und sämtliche Funktionsbereiche eines Unternehmens erfassen. Waren es bislang hauptsächlich interne und strukturierte Daten, die mithilfe von Enterprise-Resource-Planning-Systemen (ERP) und Business-Intelligence-Systemen (BI) verarbeitet und analysiert wurden, so wird es künftig erforderlich sein, auch semi- und unstrukturierte Daten aus unterschiedlichen internen und externen Datenquellen miteinzubeziehen. Hierzu bedarf es einer kostengünstigen, ortsunabhängigen, performanten und zeitnahen Speicherung, Verarbeitung und Bereitstellung dieser Daten.
Herkömmliche Technologien wie relationale Datenbanken und etablierte Systemarchitekturen mit ihrer Trennung in transaktionale (ERP) und analytische (BI) Systeme stoßen hier jedoch rasch an ihre Grenzen. An dieser Stelle setzt das Konzept von Big Data an, indem es Technologien und Werkzeuge zur Verfügung stellt, mit deren Hilfe das Erfassen, Speichern und Analysieren von großen unstrukturierten, semi-strukturierten (gemischten) und strukturierten Datenmengen technisch möglich und auch ökonomisch interessant wird.
2 Big Data Analytics erweitert das Analysespektrum
Für das Controlling stellt Big Data Analytics eine Ergänzung bzw. Erweiterung des etablierten Analysespektrums dar, welches in vielen Unternehmen vorwiegend im deskriptiven und diagnostischen Bereich angesiedelt ist. Neben periodischen Standardberichten zur Beantwortung der Frage "Was ist passiert?" kommen im Kontext von Business Intelligence Werkzeuge für diagnostische Fragestellungen in Form von multidimensionalen Ad-hoc-Auswertungen zum Einsatz, die Antworten auf die Frage "Warum ist es passiert?" liefern sollen. Zudem ist die Anwendung statistischer Methoden zur Mustererkennung im traditionellen BI-Kontext unter dem Begriff Data Mining bereits seit vielen Jahren etabliert.
An dieser Stelle beginnt auch die Schnittmenge zu Big Data Analytics, dessen Schwerpunkt auf explorativen Fragestellungen liegt. Hierzu werden mathematische und statistische Formeln und Algorithmen mit dem Ziel eingesetzt, neue Informationen zu erzeugen sowie Vorhersagewerte berechnen zu können. Getrieben von innovativen digitalen Technologien und der größeren Datenbasis haben sich unter den Begriffen "Predictive Analytics" sowie "Prescriptive Analytics" neue Ansätze etabliert, die primär auf die Beantwortung der Fragen "Was wird passieren?" und "Was ist zu tun?" abzielen. Im Rahmen von Predictive Analytics werden unter dem Begriff des maschinellen Lernens fortschrittliche Methoden wie Entscheidungsbäume, neuronale Netze oder Support Vector Machines eingesetzt, um Muster in historischen Daten zu erkennen und daraus automatisiert mathematische Modelle zur Vorhersage zukünftigen Verhaltens ableiten zu können. Werden diese Vorhersagemodelle mit semantischen Regeln, Simulationen oder Optimierungsverfahren kombiniert, können Systeme die Ergebnisse der Analysen direkt in Maßnahmenempfehlungen transformieren. Da die Systeme hierbei präskriptiv handeln, also Aussagen darüber treffen, "was zu tun ist", spricht man auch von Prescriptive Analytics.