Prof. Dr. Heimo Losbichler
In der Praxis wird die Schwierigkeit der Planbarkeit häufig auf die Volatilität des Marktumfelds, d. h. kurzfristige, unerwartete Marktschwankungen zurückgeführt. Zur Messung der Volatilität hat sich in der Betriebswirtschaft die Standardabweichung, d. h. die durchschnittliche Schwankungsbreite innerhalb eines bestimmten Zeitraums, etabliert. Es ist jedoch festzuhalten, dass berechenbare Schwankungen für die Unternehmensplanung und Prognosen viel weniger ein Problem darstellen als unberechenbare. In der Literatur hat sich daher der VUCA-Begriff – Volatility, Uncertainty, Complexity and Ambiguity – etabliert, der dem eigentlichen Problem, dem Umgang mit Komplexität, besser gerecht wird. Führungskräfte haben es heute mit einer Vielzahl einzelner "Volatilitäten" zu tun und werden von unerwarteten Schwankungen unterschiedlichster Faktoren und daraus resultierender Komplexität gefordert. Sie müssen eine immer höhere Anzahl an Faktoren berücksichtigen, die sich immer rascher verändern und zudem stark vernetzt sind. Wesentliche Treiber dieser Entwicklung sind die Globalisierung und paradoxerweise der rasante Fortschritt in der Digitalisierung, der die Welt in Echtzeit vernetzt und deren Veränderungsgeschwindigkeit erhöht.
Abb. 3: Entscheidungskomplexität durch die Dynamik vieler Faktoren
3.1 Definition Komplexität
Der Begriff der Komplexität wird umgangssprachlich im Sinne von kompliziert, undurchschaubar oder unverständlich verwendet und bringt eine gewisse Ohnmacht zum Ausdruck, das Unvermögen, die Dinge zu verstehen, zu erfassen und zu beeinflussen. Komplexität kann allgemein als die Fähigkeit eines Systems definiert werden, in einer gegebenen Zeitspanne eine große Zahl verschiedenster Zustände annehmen zu können. Diese objektive Komplexität wird mit dem Begriff der Varietät gemessen. Sie ist die Anzahl unterscheidbarer Zustände eines Systems und somit von der Anzahl seiner Elemente, deren möglichen Zuständen und vor allem von den Interaktionen zwischen den Elementen, also deren Vernetzung, abhängig. Allgemein definiert ist die Varietät eine Exponentialfunktion in Abhängigkeit von der Anzahl der Elemente n und den Zuständen dieser Elemente k:
Es ist leicht zu erkennen, dass die Komplexität durch den explosiven Charakter der Exponentialfunktion äußerst schnell unerwartete Dimensionen annehmen kann.
Im Umgang mit Komplexität ist es wichtig zu unterscheiden zwischen
- potenzieller Komplexität – der Anzahl möglicher Zustände, zu denen ein System grundsätzlich fähig wäre und die in Forecasts theoretisch zu berücksichtigen wären,
- effektiver Komplexität – der Anzahl an Zuständen, die ein System realistisch einnehmen kann und die in Forecasts berücksichtigt werden müssen, sowie
- der von Führungskräften subjektiv wahrgenommenen Komplexität.
Aus der partiellen Erfassbarkeit komplexer Entscheidungssituationen darf einerseits nicht von der subjektiv wahrgenommenen Komplexität ausgegangen werden, weil das menschliche Gehirn rasch an seine Grenzen stößt und Vereinfachungen vornimmt. Die subjektiv wahrgenommene Komplexität wird von der potenziellen Komplexität, dem Zeitdruck, unter dem die Entscheidung zu treffen ist, und der Informationsverarbeitungskapazität des Entscheidungsträgers bestimmt. Je höher also die Anzahl möglicher Zustände eines Systems, je kürzer der Zeitraum für eine Entscheidung und je geringer die individuelle Informationsverarbeitungskapazität ist, umso komplexer empfinden Menschen eine Situation. Glücklicherweise wird sich die potenzielle Komplexität durch Regeln, Normen oder Gewohnheiten nie voll entfalten. Diese Unterscheidung ist für eine erfolgreiche Bewältigung der Komplexität und den Einsatz maschineller Forecasts von entscheidender Bedeutung. So lassen sich Bereiche, in denen starke Gewohnheiten herrschen, leichter prognostizieren. Ein Beispiel wäre die Umsatzprognose im Lebensmittelhandel, die auf stabilen Essgewohnheiten aufbauen kann. Zudem ist zu berücksichtigen, dass die Komplexität von der Anzahl der Elemente, d. h. von der Größe des zu prognostizierenden Realitätsausschnitts (s. Abb. 4), abhängig ist. Spezialanwendungen können daher eher vollständig erfasst, modelliert und prognostiziert werden.
Dem Umgang mit Komplexität hat sich insbesondere die Kybernetik und Systemtheorie bereits vor geraumer Zeit gewidmet. Vordenker wie Ashby, Beer, Forrester, Luhmann, Ulrich, Probst, Gomez, Malik, Dörner oder Vester haben elementare Grundlagen geschaffen, die im Hinblick auf die Prognosefähigkeit künstlicher Intelligenz heute aktueller sind denn je. Exemplarisch werden das Bremerman'sche Limit und die partielle Erfassbarkeit und Steuerbarkeit komplexer Systeme herausgegriffen.
3.2 Das Bremerman'sche Limit
Entsprechend dem Bremerman'schen Limit ist dem menschlichen Denken eine unüberwindbare, absolute Grenze gesetzt, die auch durch noch so große Fortschritte in der Digitalisierung nicht beseitigt werden kann. Aufgrund der atomaren Beschaffenheit der Materie existiert e...