Künstliche Intelligenz entwickelt sich von der dezidierten Unterstützung spezifischer Aufgaben (insbesondere durch Machine Learning, auch bekannt als schwache Intelligenz) zur generalistischen Unterstützung (starke Intelligenz).
Sogenannte Large Language Modelle (LLM) können auf einem großen Datenbestand generisch trainiert werden und stehen dann für natürlichsprachliche Abfragen zur Verfügung. Das Ergebnis sind nicht nur automatisch generierte Texte, sondern auch Grafiken und Bilder. ChatGPT und andere Werkzeuge zeigen, dass sich hiermit beeindruckende Ergebnisse erzeugen lassen. Diese beinhalten Internet- und Intranet-Inhalte, aber auch über den sogenannten Eingabe-Prompt bereitgestellte Inhalte.
Künstliche Intelligenz in betrieblichen Anwendungssystemen ist nicht plötzlich entstanden. Es ist ein langer Entwicklungspfad, von einfachen betriebswirtschaftlichen bzw. statistischen Formeln zu einer hohen Interaktivität mit einer generalisierten Unterstützung. Klassische statistische Werkzeuge kamen bereits recht früh zum Einsatz und wurden schon in den neunziger Jahren des letzten Jahrhunderts in Planungssysteme integriert. Seit etwa 2015 sind Anwendungssysteme sukzessive um immer mehr Machine Learning-Komponenten angereichert worden. Dies sind im Wesentlichen eng aufgabenbezogene Unterstützungen. Mit dem Auftreten von ChatGTP werden nun generalisierende Komponenten integriert. Kennzeichnend hierfür sind Assistenten oder Copiloten.
Abb. 1: Entwicklung intelligenter Methoden in betrieblichen Informationssystemen
Einhergehend mit der Generalisierung hat sich auch die Präzision der Ergebnisse künstlicher Intelligenz verändert. Das lässt sich anhand der Suche in großen Datenbeständen verdeutlichen: Früher ging es bei Suchanfragen darum, möglichst genaue Eingrenzungen zu erhalten, sogenannte Wildcards mal ausgeklammert. Datenart und Tabellen sowie die Felder sollten bekannt sein. Dann kamen die Suchmaschinen wie beispielsweise Google und veränderten die Art, wie Abfragen gestellt werden. Nicht mehr eine klare Regelsprache wie beispielsweise die Relationenalgebra wird angewendet, sondern eine recht freie Formulierung. In den meisten Fällen ist die Treffermenge sehr hoch. Häufig sind aber viele, nicht relevante Verweise dabei, und es liegt am Benutzer zu entscheiden, welche Ergebnisse für ihn brauchbar sind. Hierbei geht es darum, den Suchraum möglichst präzise einzugrenzen und eine klare Formulierung zu verwenden. Man hat sich daran gewöhnt, selbst aus der Treffermenge zu selektieren.
Dieser etwas "lockere" Umgang mit Ergebnissen wird durch GenAI wieder eingeschränkt, indem nur ein zusammenhängendes Ergebnis, wie zum Beispiel ein neuer Text erzeugt wird. Die Auswahl der geeigneten Quellen übernimmt die Maschine. Mit GenAI können neu kombinierte Inhalte aus großen Datenmengen generiert werden. Dies basiert auf einem sogenannten Foundation Model, auch bekannt als Basismodell. Dieses wird über einen Deep-Learning-Algorithmus erzeugt, der mit großen Datenmengen aus dem Internet oder aus internen Quellen vortrainiert wird. Diese Modelle besitzen die Fähigkeit, Wissen über verschiedene Domänen hinweg zu generalisieren und anzuwenden. Solch ein groß angelegtes neuronales Netzwerk kann einmal trainiert und dann für verschiedene Aufgabentypen feinabgestimmt werden. Damit sind sie für eine breite Palette von Anwendungsfällen einsetzbar.
Bei der Anreicherung von Unternehmensinformationssystemen um Künstliche Intelligenz geht es weniger um einzelne Basismodelle. Bei betrieblichen Informationssystemen, zu denen auch die Planung gehört, ist der Anspruch an die Qualität deutlich höher. Insbesondere müssen qualitative und quantitative Informationen, zum Teil intern aber zum Teil auch extern, zusammengeführt werden. Analysen auf Zahlen müssen anders behandelt werden als eine Textanalyse. Insofern müssen verschiedene Modelle kombiniert werden. Abbildung 2 zeigt eine solche erweiterte Struktur.
Abb. 2: Notwendige Architekturerweiterungen
Ein zentraler Punkt dabei ist die Verbesserung der Ergebnisse im Vergleich zu den relativ statischen allgemeinen LLMs wie beispielsweise ChatGPT. Hierbei kommen verschiedene Ansätze zum Einsatz:
- Da die speziellen LLMs überschaubar sind, können sie auch häufiger überarbeitet werden. Dabei kann auch der Dateninput überarbeitet werden.
- Auch ist deutlich mehr über den Anwender bekannt (z. B. Anwenderprofil). Dies kann zur Fokussierung der Ergebnisse beitragen.
- Mit dem Prompt Engineering entwickelt sich ein weites Forschungsfeld. Zum Beispiel hat die Reihenfolge der Eingabeinformationen einen deutlichen Einflussfaktor auf die Güte der Ergebnisse.
- Die gesteuerte Erweiterung um zusätzliche Wissensbasen erhöht die Leistungsfähigkeit von GenAI-Systemen (sogenanntes RAG, Retrieval Augmented Generation).
- Schließlich kann eine Orchestrierung weiterer LLMs durch ein orchestrierendes LLM übernommen werden.