Johannes Nawrath, Dr. Raphael Kozlovsky
Um NLP- und LLM-Funktionalitäten erfolgreich in Controlling-Abteilungen einzuführen, ist eine nahtlose Integration in die bestehende IT-Landschaft unerlässlich. Abhängig von den konkreten Anforderungen des Unternehmens, der Skalierung der Lösung und den bestehenden Expertisen in den Fach- und IT-Abteilungen gibt es verschiedene Möglichkeiten der technischen Umsetzung.
3.1.1 Verwendung von Standardtools
Ein praktikabler Ansatz zur Nutzung von NLP/LLMs im Controlling besteht darin, vorgefertigte Funktionalitäten in Standard-Softwaretools zu verwenden. Die Implementierung erfordert hierbei häufig nur minimalen Aufwand hinsichtlich Anpassungen in der IT-Landschaft, da die Funktionen bereits in den im Unternehmen eingesetzten Tools integriert sind. Die einfache Umsetzung macht diesen Ansatz besonders attraktiv, um erste Erfahrungen mit NLP/LLMs zu sammeln und den Mehrwert der Technologie zu demonstrieren.
Jedoch ist der Funktionsumfang, die Transparenz in der Funktionsweise sowie die Anpassungsfähigkeit an unternehmensspezifische Bedürfnisse oftmals stark eingeschränkt. Eine eigenständige Weiterentwicklung ist i. d. R. nicht möglich, und Unternehmen sind auf Updates und Erweiterungen seitens der Hersteller angewiesen.
3.1.2 Verwendung von API-Schnittstellen
Ein alternativer Ansatz zur Integration von NLP/LLMs im Controlling ist die Nutzung dedizierter Services über API-Schnittstellen. Dies ermöglicht Unternehmen state-of-the-art Modelle einzusetzen, ohne eigene Rechenkapazitäten bereitstellen zu müssen oder Expertise in der Implementierung von NLP- und LLM-Lösungen zu haben. Eine erfolgreiche Umsetzung erfordert Kenntnisse in der Arbeit mit APIs, Cloud-Services und deren Integration in bestehende Infrastruktur.
Die Vorteile von API-Schnittstellen liegen in der Vielfalt der verfügbaren Services, der Anpassbarkeit an unternehmensspezifische Anforderungen und der einfachen Skalierbarkeit. Zudem profitieren Unternehmen von ständigen Aktualisierungen und Verbesserungen der Modelle durch die Anbieter und bleiben fortlaufend auf dem neusten Stand der Technik.
Mögliche Herausforderungen bei der Nutzung von API-Schnittstellen sind Datenschutz- und Compliance-Richtlinien, die bei der Verwendung von Cloud-Services zu Problemen führen können. Unternehmen müssen sicherstellen, dass die gewählten Dienste den gesetzlichen Anforderungen und internen Richtlinien entsprechen, um Risiken zu minimieren. Darüber hinaus sind bei der Nutzung von APIs die Kosten für die Nutzung der Services und den Datenverkehr zu berücksichtigen.
3.1.3 Verwendung von Eigenimplementierungen
Die Entwicklung und Implementierung eigener NLP- und LLM-Modelle bietet Unternehmen die größtmögliche Flexibilität, Anpassungsfähigkeit und Kontrolle über ihre Lösungen. Selbst implementierte Modelle sind insbesondere dann von Vorteil, wenn strenge Datenschutz- und Compliance-Richtlinien vorliegen, die z. B. die Nutzung von Cloud-Diensten untersagen.
In solchen Fällen ermöglicht die lokale Implementierung der Modelle eine bessere Kontrolle über die Daten und die Einhaltung von Sicherheitsstandards. Außerdem kann bei groß angelegten Anwendungsfällen ein Kostenvorteil gegenüber API-Schnittstellen entstehen, insbesondere wenn hohe Datenvolumen involviert sind.
Allerdings sind mit dem Einsatz eigener Modelle auch Herausforderungen verbunden. Es wird umfangreiches Wissen benötigt, um die korrekten Modelle auszuwählen, diese zu trainieren und produktiv bereitzustellen. Dies führt zu einem erhöhten Bedarf an Ressourcen in Bezug auf Personal und technische Infrastruktur, um eine kontinuierliche Überwachung, Aktualisierung und Optimierung der Modelle zu gewährleisten und in die bestehenden IT-Systeme zu integrieren.