Die Generalität des Ansatzes führt dazu, dass eine Adaption auf Bereiche möglich erscheint, in denen künstliche Intelligenz bislang wenig ausrichten konnte. Die neuen Möglichkeiten laden zu Visionen ein. Allerdings wird auch ein Erwartungsdruck aufgebaut, der, wenn dieser nicht erfüllt wird, zu massiven Enttäuschungen führen könnte, wie es häufig bei Themen rund um Künstliche Intelligenz der Fall ist.
Es zeigt sich bereits seit längerem beim Maschinellen Lernen, dass die Erwartungen, gemessen an dem bisher Erreichten, zu hoch waren. In der Unternehmensplanung zeigt sich dies im Einsatz in der Vorschaurechnung. Die Anzahl erfolgreicher Projekte ist eher bescheiden, denn wenn signifikante Zusammenhänge erkennbar sind, ist die Wahrscheinlichkeit hoch, dass diese bereits mit konventionellen Mitteln erkannt worden sind.
Wo kann nun generative Künstliche Intelligenz bei typischen betriebswirtschaftlichen Fragen zur Entscheidungsunterstützung helfen? Bemerkenswert ist die Erzeugung von Texten und Zusammenfassungen aus einem größeren Textdatenbestand. Die Interpretation von Zahlen funktioniert mittlerweile recht gut, wobei sich die verfügbaren Beispiele auf einfache Zusammenhänge beschränken. Auch Fragen nach dem Kontext der zu berichtenden Zahlen lassen sich gut beantworten. Bei differenzierten Abweichungsanalysen kommen solche Systeme jedoch schnell an die Grenzen.
Herausforderungen bestehen hinsichtlich der Problemlösungsstrategie: Auf der einen Seite stehen die klassischen BWL-Modelle mit dem Anspruch, exakte Ergebnisse zu erzeugen. Auf der GenAI-Seite wird stärker mit weichen Informationen gearbeitet, die einen Interpretationsspielraum zulassen. Über einen negativen Deckungsbeitrag kann man zwar Ursachen und Ideen zu Maßnahmen suchen lassen, die Diskussion über die Höhe ist allerdings müßig.
Es besteht also eine erhebliche Kluft zwischen dem Zusammensuchen und -fassen von bestehenden Textbestandteilen mit einem gewissen Interpretationsspielraum und dem Arbeiten mit komplexen mathematischen Modellen. In der Betriebswirtschaftslehre ist dabei meist nicht die Komplexität der einzelnen Ableitungsformeln entscheidend, sondern die Vielzahl der untereinander abhängigen Verknüpfungen. So zeichnen sich Controlling-Modelle, wie sie in der Planung verwendet werden, eher durch einfache Beziehungen aus (was nicht heißt, dass sie nur univariat und linear sind). Jedoch sind die Formeln hochgradig verknüpft. Beim Aufbau von Optimierungsmodellen treten zusätzlich Probleme wie die Zielmodellierung auf.
Ein erhebliches Risiko besteht bei einer scheinbar plausiblen Darstellung der Ergebnisse. Bei dem Eifer, mit der sich die Künstliche Intelligenz an die Arbeit macht, geht die Richtigkeit häufig verloren, man spricht auch von Halluzinationen. Die syntaktisch hohe Qualität des Resultats täuscht häufig darüber hinweg, dass im Detail einiges nicht stimmt. Überlässt man GenAI die Ausführung, wie etwa die Erstellung einer Zusammenfassung basierend auf Internet-Inhalten, so kommt zwar immer etwas heraus, doch zeigt sich GenAI selten verlegen und gesteht kaum sein Nichtwissen ein. Ein solches System neigt jedoch zu sogenannten Halluzinationen, wenn die Informationsdecke dünn ist. Lieber "mogelt" es sich heraus, statt seine Ahnungslosigkeit zuzugeben. Die Gefahr des Halluzinierens ist hoch und damit steigt die Wahrscheinlichkeit von Fehlentscheidungen durch Manager.
Zwar hantiert GenAI intern mit Wahrscheinlichkeiten, letztendlich wird allerdings ein Ergebnis ohne Informationen über die Vertrauenswürdigkeit zurückgegeben. Zwar könnte man die referenzierenden Quellen bzw. deren Anzahl als überprüfbaren Nachweis zurückgeben, doch sind auch hier die Resultate eher enttäuschend. Dass eine Aussage durch mehrfache Quellen bestätigt wurde, sagt wenig über den Wahrheitsgehalt der Quelle aus. Häufig werden Inhalte mehr oder weniger modifiziert von anderen Seiten übernommen, sodass ein erneutes Auftreten der gleichen Erkenntnisse keine zusätzliche Validierung bedeutet. Das Agieren mit Wahrscheinlichkeiten führt auch dazu, dass Zusammenhänge erfunden werden. Leider erscheint als Resultat, dass die Aufgabe zu keinem sinnvollen Ergebnis führe, viel zu selten.
Dies kann im experimentellen Bereich toleriert werden und teilweise wird es auch als kreative Leistung von Künstlicher Intelligenz angesehen. Allerdings ist es äußerst problematisch im Bereich der Entscheidungsunterstützung, da der Anwender die Verantwortung für eine Entscheidung trägt, die auf falschen Informationen basiert.
Auch bei automatisierbarem Machine Learning, als weiteren Schwerpunkt beim Einsatz von KI im Controlling, liegt ein ähnlich gelagertes Problem vor. Ein entsprechender Algorithmus präsentiert Ergebnisse, beispielsweise eine Absatzprognose. Diese Ergebnisse werden häufig als Best Guess über verschiedene Methoden ohne Einschätzung der Signifikanz präsentiert. Man vertraut darauf, dass der Algorithmus die richtige Auswahl durch Optimierung bereits getroffen hat. Dies trifft in der Regel...