Zusammenfassung
- Die Monte-Carlo-Simulation ist unverzichtbar, wenn es um das Arbeiten mit stochastischer Planung und die Bewertung von Einzelrisiken geht.
- Bereits mit der Standardversion von Excel kann man einfache Simulationsmodelle aufbauen.
- Komplexere Ansätze erfordern fortgeschrittene Werkzeuge. Statt mit teuren Spezial-Applikationen kann aber auch mit Open Source gearbeitet werden.
- In dem Beitrag werden 5 Unterstützungsmöglichkeiten von der einfachen Excel-Simulation bis hin zur umfassenden Umsetzung in "R" gezeigt.
1 Grundlagen der stochastischen Simulation
Planung ist unsicher. Diese Trivialität wird gerne in institutionalisierten Planungsprozessen verdrängt. Vielleicht wäre sonst auch kein gesetzlicher Zwang zum Aufbau eines Risikomanagementsystems notwendig. Allerdings ist die eher qualitativ ausgerichtete Ausgestaltung dieses Prozesses häufig nicht ausreichend, um Unsicherheiten in den Systemen zur Unternehmenssteuerung adäquat zu repräsentieren:
- Zur Unsicherheit gehören auch Chancen. Hier greift der Gesetzgeber nicht ein, so dass mit der Analyse der Risiken nur die negativen Unsicherheiten betrachtet werden.
- Nicht zu vergessen sind auch normalen Schwankungen im Geschäft, die nicht bestandsgefährdend sind.
- Und zu guter Letzt sind die den Unsicherheiten betreffenden Varianten häufig nicht unabhängig. Dass ein sich änderndes Konsumklima die Insolvenzwahrscheinlichkeit beeinflusst, ist einleuchtend. Und Inflationsrisiken wirken gleichermaßen auf der Lieferanten- und auf der Kundenseite.
Ein erster Einstieg mit einer Sensitivitätsanalyse oder einem Stresstest kann bereits helfen, das Risiko besser einzuschätzen. Diese Werkzeuge weisen aber deutliche Schwachstellen auf, da in der Regel nur Extremsituationen durchgespielt werden, kontinuierliche Veränderungen aber kaum beachtet werden.
Ein praktikables Werkzeug zur umfassenden Einschätzung des Risikos ist die Monte-Carlo-Simulation. Bei Anwendungen dieser Methode im Controlling geht es meistens darum, Risiken explizit in die Vorschau /Planung einzubeziehen. Daher spricht man auch gerne von der Korridor- oder Bandbreitenplanung. Ziel ist es, die Unsicherheit in einer strukturierten Art und Weise zu verarbeiten, sodass eine zuverlässige Einschätzung des Gesamtrisikos möglich ist.
2 Das Verfahren
2.1 Gesamtrisiko, Risikoaggregation und weitere Herausforderungen
Das Verfahren ist recht einfach und schnell erklärt: Unabhängige Parameter eines Modells (beispielsweise der Absatz oder der Preis in einer Deckungsbeitragsrechnung) werden anstatt mit absoluten Planungswerten mit statistischen Verteilungsfunktionen wie der Normalverteilung, der Gleichverteilung oder der Dreiecksverteilung belegt. Zusätzlich werden Einzelrisiken zum Beispiel mit Schadenshöhe und Eintrittswahrscheinlichkeiten bewertet (in der Regel als binäre Risiken). Diese Risiken wirken auf die Ergebnisgröße oder alternativ auf mehrere Positionen des Modells, falls eine differenzierte Wirkungsanalyse vorgenommen wird.
Aus diesen verschiedenen Teilrisiken und den Schwankungen der Modellvariablen soll nun ein Gesamtrisiko ermittelt werden. Dies sind Ergebnisschwankungen (->Überschuldungsrisiko) oder Zahlungsmittelschwankungen (->Illiquiditätsrisiko). Dazu werden die Definitions- und Verhaltensgleichungen des Planungsmodells genutzt. Dies ist beispielsweise das GuV-Schema zur Ermittlung des Value@Risk auf der Basis des Betriebsergebnisses oder des Cashflow. Der Value@Risk (VaR) ist der absolute Verlust einer Zielgröße, der innerhalb eines Zeitraums mit einer festgelegten Wahrscheinlichkeit nicht überschritten wird.
Je detaillierter das Modell ist, desto besser lassen sich die Wirkungen der Risiken lokalisieren. Damit steigt aber auch die Komplexität, sodass hier eine Balance gefunden werden muss.
Es gibt eine Herausforderung, die es zu lösen gilt: Man kann Risiken und Verteilungsfunktion nicht so einfach aggregieren. Zwar lassen sich gleichförmige Verteilungsfunktionen wie die Normalverteilung durchaus addieren. Bei höchst unterschiedlichen Risiken ist diese Gleichförmigkeit jedoch kaum zu erwarten. Dies ist aber für eine Value@Risk-Berechnung unbedingt notwendig. Die kumulierte Eintrittswahrscheinlichkeit stochastisch unabhängiger Ereignisse wird durch die Multiplikation der Einzelwahrscheinlichkeiten ermittelt. Worst- oder Best-Case-Betrachtungen auf der Basis von Verteilungsgrenzwerten, wenn es sie überhaupt gibt, greifen somit ins Leere, weil damit Situationen beschrieben werden, die praktisch unmöglich sind. In der Einzelbetrachtung sind in diesem Fall Quantilsbetrachtungen (zum Beispiel 95 %-Korridore) hilfreich, in der Gesamtsicht aus dem oben genannten Grund jedoch nicht.
Man behilft sich daher häufig mit einer Multiplikation von Schadenshöhe und Eintrittswahrscheinlichkeit. Aber mit der Mittelwertbildung geht viel Information verloren. Was nutzt der Einbezug eines einprozentigen Abzugs eines Schadens in der Plan-GuV, wenn dieser (beim zugegebenermaßen unwahrscheinlichen Auftreten) die Existenz der Unternehmung infrage stellt? Und es ist nicht mal so, da...