Henrik Dörries, André Frisch
5.1 Vorteile gegenüber manuellen Forecasting-Ansätzen
Ein Liquiditätsforecast sollte möglichst präzise sein, aber dennoch so ressourcenschonend wie möglich durchgeführt werden. Hierdurch wird gewährleistet, dass der Aufwand für die Erstellung den Vorteil eines exakten Liquiditätsforecasts und dem daraus ableitbaren Einsparpotenzial nicht aufzehrt. Neben den Anforderungen an die notwendigen Ressourcen, ist die Aktualität des Forecasts zu berücksichtigen. So soll der Forecast einerseits auf Basis aktueller Daten erstellt werden, aber auch ohne große zeitliche Verzögerung ein realistisches Bild für die Entscheidungsträger zur Verfügung stellen.
Abhängig von der Unternehmensgröße und -struktur nimmt bei manuellen oder teilautomatisierten Forecasting-Ansätzen das Erstellen und Einsammeln der Informationen aus den verschiedensten Unternehmenseinheiten einen großen Zeitraum in Anspruch. Im nachfolgenden Schritt müssen die Informationen aus einer heterogenen Masse in eine homogene Datenquelle konsolidiert werden. Hierdurch ergeben sich zwei Problematiken:
- Einerseits können die anfangs gesammelten Informationen bereits veraltet sein, wenn diese in die homogene Datenquelle überführt werden.
- Andererseits verstreicht wertvolle Zeit und wird der Handlungsspielraum eingeschränkt, sodass in Ausnahmefällen auf unerwartete Situationen kaum noch reagiert werden kann.
In den vergangenen Jahren sind basierend auf modernen Technologien weitere Ansätze entwickelt worden, welche die Präzision der Forecasts und die Effizienz bei der Erstellung spürbar erhöhen. Diese sogenannten Predictive-Analytics-Ansätze werden nachfolgend im Detail erläutert.
5.2 Methoden der Modellierung
Predictive-Analytics-Modelle lernen aus der Vergangenheit und treffen auf Basis dieser Erkenntnisse Vorhersagen über zukünftige Entwicklungen. Einbezogen werden können alle historischen Informationen, sofern diese auch für die Zukunft relevant sind. Ex-ante unbekannte Korrelationen oder Ereignisse können hingegen auch durch diese Ansätze nicht vorhergesagt werden.
In der Praxis finden für den Liquiditätsforecast sowohl Zeitreihenmodelle als auch Machine-Learning-Methoden Verwendung. All diese Modelle haben die Prognose einer Zielvariable unter Minimierung des Messfehlers zum Ziel. Sie unterscheiden sich jedoch hinsichtlich der benötigten Rechenleistung, des Implementierungsaufwands und den fachlichen Anforderungen.
5.2.1 ARIMA-Modelle
Zu den weit verbreiteten Vertretern der Zeitreihenmodelle gehören ARIMA-Modelle, für welche verschiedene Varianten und Spezialfälle existieren. Grundsätzlich kombinieren alle Varianten eine gewichtete Summe vergangener Werte (AR = Autoregressive) mit dem gleitenden Durchschnitt vergangener Schätzfehler (MA = Moving Average) und der n-fach differenzierten Originalzeitreihe. Die Differenzierung integriert Trends in Zeitreihen und sorgt somit dafür, dass die Zeitreihe stationär ist. Diese Voraussetzung muss zwingend für die Verwendung von AR- und MA-Prozessen erfüllt sein. ARIMA-Modelle ermöglichen die Berechnung von Konfidenzintervallen, berücksichtigen allerdings im Gegensatz zu Machine-Learning-Algorithmen keine externen Faktoren. Bei der Modellierung kann eine Vielzahl verschiedener Parameter einbezogen werden, damit geht allerdings das Risiko der Überanpassung einher. Die Anpassung von ARIMA-Modellen ist zudem mit einer hohen Komplexität verbunden.
5.2.2 Machine-Learning-Methoden
Machine-Learning-Methoden umfassen neben neuronalen Netzen auch auf Entscheidungsbäumen basierende Algorithmen wie Random Forest und XGBoost. Diese Ansätze können bis zu einem gewissen Grad eigenständig entscheiden, welche externen Faktoren für die Modellierung relevant sind. Der Random Forest ist ein Algorithmus, welcher mehrere unabhängige Entscheidungsbäume kombiniert. Jeder Baum kann dabei selbst Entscheidungen zur Prognose treffen, wobei die Prognose mit den meisten Stimmen gewählt wird (Mehrheitsentscheid). Für die Definition der Entscheidungsbäume werden die Daten zur Erkennung verschiedener Muster zunächst zufällig in Stichproben unterteilt, das heißt, jeder Entscheidungsbaum erhält eine unterschiedliche Auswahl an Faktoren, um einen Prognosewert zu berechnen.
XGBoost
XGBoost (eXtreme Gradient Boosting) ist eine Open-Source-Bibliothek für Machine-Learning-Algorithmen mit Gradient Boosting. Diese Methode beginnt zunächst mit einem einfachen Entscheidungsbaum, dessen Schwächen durch die Kombination mit einem zweiten Baum korrigiert werden. Das Hinzufügen weiterer Bäume erfolgt so lange, bis keine signifikante Verbesserung des Forecasts mehr erzielt werden kann. Der Forecast mit dem XGBoost ist also eine Verbindung mehrerer Entscheidungsbäume, die iterativ ausgewählt werden, um jeweils die Fehler des vorhergehenden Baumes zu minimieren. XGBoost ist zudem relativ leicht zu implementieren und liefert robuste Ergebnisse. Bei der Modellierung muss die Einbeziehung externer Faktoren mit Korrelation aber ohne Kausalität vermieden werden, da das Modell sonst falsche Zusammenhänge lernt.
Neuronale Netze
Ebenfalls zu den Machine-Learning-Ansätzen zählen neuronale Netze. Diese komplexen Algorithmen ...