1.1 Einsatz spezialisierter Statistik-Software
Predictive Analytics (PA) ist in aller Munde, obwohl die Thematik nicht mehr ganz neu ist. Entsprechende PA-Methoden werden schon lange von den verschiedenen Fachabteilungen wie Marketing, Vertrieb, Logistik und Produktion eingesetzt, doch auch Controller gewinnen mehr und mehr Interesse. Da ein Controller der Ergebnisorientierung verpflichtet ist, sollte er natürlich besonders auf den Wertbeitrag schauen, den ein solches Projekt bringen kann oder eben nicht. Ein sinnvolles Ziel seines Predictive-Analytics-Engagements könnten seine eigenen Prozesse sein
Vielleicht fällt es Ihnen noch etwas schwer, aus Prozessen wie Planung oder Berichtswesen Innovationspotenziale in Bezug auf Predictive Analytics zu identifizieren. Viel präsenter sind Kaufpräferenzen, Abwanderungsanalysen, Betrugserkennung oder vorausschauende Wartung (Predictive Maintenance). Aus der Erfahrung des Autors ergeben sich jedoch neben diesen schon klassischen Ansätzen vielfältige Möglichkeiten im Tagesgeschäft. Hierzu gehören z. B. Automatisierung von Prognosen, Ermittlung von Saisonfaktoren, Kausalanalysen, Risikoeinschätzungen, Ermittlung von Geldwertungsfaktoren und vieles mehr.
Aus Prozesssicht ergeben sich verschiedene Chancen:
- Schaffung besserer Grundlagen für die Planung durch ein besseres (automatisches) Forecasting;
- bessere Analysemöglichkeiten, z. B. im Rahmen von Kontrollrechnungen;
- fundiertere Einschätzung möglicher Chancen und Risiken im integrierten Erfolgs-und Risikomanagement;
- fundiertere Simulationen durch präzisere Abschätzung der Wirkungsbeziehungen.
Es gibt nun schon bereits seit vielen Jahren Spezialwerkzeuge, um leistungsfähige Algorithmen zu Predictive Analytics nutzen zu können. Diese Werkzeuge sind allerdings eher für Spezialisten geeignet, denn sie verlangen dem Anwender hohes Methodenwissen und auch Einsatzerfahrung ab. Eine qualifizierte Ergebnis-Interpretationshilfe findet man bspw. nur selten. Das ist gefährlich, denn die Aussagekraft von Analysen ist häufig begrenzt, wenn die Datengrundlage schlecht oder der Algorithmus nicht geeignet ist.
Von der Flexibilität und auch von der Mächtigkeit her eignen sich Python und R, die nahezu alle vorstellbaren Algorithmen aus konventioneller Statistik und Machine Learning direkt oder über Ergänzungsmodule bereitstellen. Der eigentliche Wert liegt in den sog. Erweiterungs-Packages, die jeder Nutzer beisteuern kann. Es kann mit R mittlerweile auf mehr als 10.000 Packages zugegriffen werden. Als Open Source sind diese ohne Einschränkungen frei verfügbar und auch schnell installiert.
Bei beiden Werkzeugen handelt es sich allerdings um Programmiersprachen, die zumindest grundlegende Programmierkenntnisse erfordern. Der Einarbeitungsaufwand ist nicht zu unterschätzen. Neben dem Kodieren sind auch Erfahrungen mit Datentypen, Datenaustausch, Programmstrukturierung, Testen und hierbei insbesondere Debugging von Vorteil. Auf der anderen Seite helfen diese Fähigkeiten grundsätzlich bei vielen Problemen in Excel oder anderen Controllingwerkzeugen. Und so mancher Controller ist über VBA-Programmierung bereits ziemlich tief die Kodierung von Abläufen eingedrungen.
Der Autor hegt eine Präferenz für R, da diese in der akademischen Welt sehr gut verankert ist, somit anspruchsvolle und qualitativ hochwertige Algorithmen verfügbar sind. Auch besteht eine hohe Begeisterung in dieser Community für das Teilen von Erkenntnissen in Form von Algorithmen und inhaltlichen Beiträgen, was der Einarbeitung durchaus förderlich ist.
Natürlich gibt es auch Alternativen: Grafische Umgebungen wie bspw. der Rapid Miner oder Knime ermöglichen die kodierungsfreie Erstellung von Lösungen. Diese Klasse von Anwendungen ist intuitiv und erleichtert die Einarbeitung nicht unerheblich. Trotzdem muss auch bei diesen Werkzeugen ein solides Verständnis der Methoden und vor allen Dingen deren Limitationen gegeben sein. Viele Experten setzen aufgrund der höheren Flexibilität auf R oder Python. Und letztendlich ist es die Excel-Integration, die den Autor zur Auswahl von R bewegt hat.
Es gibt es auch für R entsprechende grafische Oberflächen wie bspw. Rattle oder R Analytics, die eine ähnlich komfortable Erstellung wie Knime ermöglichen. Rattle ist eine grafische Oberfläche, mit der Daten geladen und diese mit statistischen Standardwerkzeugen analysiert werden können. Im Hintergrund wird R erzeugt.
Abb. 1: Datenaufbereitung in Rattle
1.2 Verwendung von Excel
Das Werkzeug der Wahl im Controlling ist hingegen immer noch Excel. Die hohe Einsatzflexibilität macht es im Tagesgeschäft des Controllers nahezu unverzicht...