Dr. Matthias Emler, Johannes Nawrath
Für die erfolgreiche Umsetzung von prädiktiven Analytics-Projekten ist ein strukturiertes Vorgehen, verbunden mit einem ganzheitlichen Change-Management-Ansatz, zentral. "Ganzheitlich" bezieht sich in diesem Zusammenhang zum einen auf die technische Entwicklung und Implementierung der Algorithmen und zum anderen auf die Kommunikation mit Stakeholdern und Anwendern. Nur wenn die Erwartungshaltungen realistisch sind und Vertrauen in die Technologie geschaffen wird, kann ein Projekt erfolgreich umgesetzt werden.
Grundsätzlich kann unser Vorgehensmodell, wie in Abb. 1 dargestellt, in 3 Phasen unterteilt werden. Zunächst wird der Use Case spezifiziert und unter Berücksichtigung der Rahmenbedingungen auf Machbarkeit, Aufwand und Nutzen geprüft. Erst nach dieser Validierung des möglichen Mehrwerts wird mit der mathematischen Modellierung begonnen und eine Prototypenanwendung entwickelt. Erfüllt der Prototyp die Erwartungen, kann mit der Integration der Lösung in die bestehende Infrastruktur des Kunden begonnen werden. Im Folgenden schauen wir auf die einzelnen Schritte des Vorgehensmodells.
Abb. 1: Vorgehensmodell für prädiktive Analytics-Projekte
4.1 Ideenfindung
Prädiktive Analytics-Projekte starten mit einer Phase der Ideenfindung, in der Zielstellung und Funktionalität des Anwendungsfalls ausgearbeitet und unmittelbar hinsichtlich der vorhandenen Daten und Prozessabläufe reflektiert werden. Die Ziele und angestrebten Vorteile des algorithmischen Forecasts werden mit Stakeholdern abgestimmt, um eine realistische Erwartungshaltung zu schaffen und etwaige Vorbehalte greifbar zu machen.
Durch erste Analysen der Daten hinsichtlich ihrer Qualität und Quantität kann dann eine Abschätzung der Machbarkeit getroffen und unter Berücksichtigung der involvierten IT-Systeme ein konkreter Implementierungsplan entwickelt werden. Auf dieser Basis werden Nutzen und Kosten bestimmt und eine Abschätzung des "Return on Invest" ermöglicht.
Für die Modellierung müssen zunächst im Rahmen des sogenannten Feature Engineering, die relevanten Einflussfaktoren identifiziert und mit Daten abgebildet werden. Dabei können sowohl interne Datenquellen wie z. B. ERP-, CRM- oder Logistik-Systeme, aber auch externe Daten aus öffentlichen Quellen, Marktforschung oder vor- und nachgelagerten Wertschöpfungsstufen berücksichtigt werden. In diesem Schritt werden zusammen mit Spezialisten aus den relevanten Fachbereichen (sogenannte "Domain-Experten") die wichtigsten qualitativen Treiber erarbeitet und von den Data Scientisten quantitativ abgebildet, sodass sie ein mathematisches Modell verarbeiten kann.
4.2 Modellierung
Stehen die infrage kommenden Einflussfaktoren fest, kann mit der mathematischen Modellierung begonnen werden, wobei die Komplexität der verwendeten Algorithmen je nach Anwendungsfall und Datengrundlage variiert. Soll der algorithmische Forecast als Entscheidungshilfe im "traditionellen" Prozess unterstützen, so steht die Interpretierbarkeit des entwickelten Modells im Vordergrund, um die algorithmisch ermittelten Prognosen leicht nachvollziehen zu können.
Eine erhöhte algorithmische Komplexität erlaubt mitunter eine Steigerung der Genauigkeit des Forecasts, wenngleich dadurch die unmittelbare Nachvollziehbarkeit der Ergebnisse abnimmt. Unabhängig davon wird durch das Anpassen des Modells an die historischen Trainingsdaten ein funktionaler Zusammenhang zwischen Ein- und Ausgabedaten gelernt.
Vor diesem Hintergrund ist es wichtig, den algorithmischen Forecast zu evaluieren, indem aussagekräftige Kontrollkennzahlen definiert werden, die den tatsächlichen Mehrwert der Prognosen möglichst genau abbilden. Basierend darauf können Stärken und Schwächen der Lösung klar kommuniziert und die Akzeptanz der Algorithmen gesteigert werden.
Der letzte Schritt in dieser Phase des Projekts ist die Implementierung einer Prototypanwendung, um die Funktionalitäten zu testen und den Mehrwert in der Praxis zu bestätigen. Die Testanwender erhalten dabei operative und technische Unterstützung sowie die Möglichkeit, zielgerichtet Feedback zu geben, um einen möglichst maßgeschneiderten Forecast zu entwickeln.
4.3 Produktive Nutzung
Die Integration der Lösung in die Infrastruktur des Unternehmens stellt die abschließende Phase dar. Der Prototyp erhält den letzten Feinschliff zur Produktionsreife. Die Datenverarbeitung und Modellberechnungen werden hinsichtlich Rechenressourcen und Sicherheitsanforderungen optimiert und die notwendigen Schnittstellen werden eingerichtet. Zusätzlich wird ein Performance-Monitoring implementiert, das sowohl die Güte der implementierten Modelle als auch die Qualität der verwendeten Daten kontinuierlich überwacht und früh auf unerwartetes Verhalten hinweist.
Sobald alle Systeme bereitgestellt wurden, beginnt die tatsächliche Einführung der Anwendung. Falls erforderlich, wird die Lösung hierbei auf die Bedürfnisse verschiedener Anwendungsbereiche zugeschnitten, indem z. B. für verschiedene Länder die Sprache angepasst und kosteneffizient Rechenkapazität zugewiesen wird.