Johannes Nawrath, Dr. Raphael Kozlovsky
In der heutigen vernetzten und globalisierten Welt verändert sich das Geschäftsumfeld mit rasanter Geschwindigkeit – was teilweise hohe Risiken mit sich bringt. In solch einem Umfeld ist es von entscheidender Bedeutung, operative, taktische und strategische Entscheidungen auf einer soliden Datengrundlage zu treffen.
Die Herausforderung liegt dabei nicht darin, dass es an relevanten Daten mangelt – ganz im Gegenteil, die Fülle an Daten ist oft überwältigend. Insbesondere im Textbereich steigt die Menge an Daten enorm. Dies resultiert unter anderem aus der zunehmenden Nutzung von Social Media sowie der wachsenden Produktion von Online-Inhalten, einschließlich Artikeln, die von KI-Systemen wie ChatGPT verfasst werden. Eine händische Verarbeitung der Daten ist nur mit enormen Ressourceneinsatz möglich. Die Ergebnisse solch einer manuellen Auswertung sind dann schnell veraltet – Echtzeitauswertungen sind nicht möglich.
Durch automatisiertes Crawling können große Mengen an Textdaten aus einer Vielzahl von Quellen beschafft werden. Zu den Quellen gehören Online-Artikel, Social Media-Beiträge, Patentdatenbanken, Geschäftsberichte und viele mehr. Jede dieser Quellen enthält einen immensen Informationsgehalt mit potenziell entscheidungsrelevanten Inhalten. Um als Marktteilnehmer wettbewerbsfähig zu bleiben, ist daher eine automatisierte Auswertung von Textdaten durch NLP von großer Bedeutung.
Die Anwendungsfelder, für solch eine automatisierte Auswertung von Textdaten durch NLP, sind dabei vielfältig. Eine Übersicht möglicher Anwendungsfelder, eingeordnet in End-to-end-Prozesse, ist in Abb. 1 gegeben. Hier ist anschaulich dargestellt, wie aus Textdaten sowohl in strategischen Prozessbereichen (z. B. Plan-to-steer), als auch in operativen Prozessbereichen (z. B. Order-to-cash) Mehrwert geschaffen werden kann.
Abb. 1: Mögliche Anwendungsfelder von NLP in Unternehmen entlang der End-to-End-Prozesse.
Der Einsatz von NLP in den unterschiedlichen Anwendungsfeldern wird durch verschiedene Methodiken ermöglicht, die im Folgenden beschrieben werden sollen.
2.2.1 Sentiment-Analyse
Die Sentiment-Analyse zielt darauf ab, Emotionen, Stimmungen und Einstellungen in Texten zu interpretieren. Das Ziel ist dabei, eine geäußerte Haltung als positiv, neutral oder negativ zu erkennen. Die Anwendungsmöglichkeiten einer Sentiment-Analyse sind dabei breit gefächert. Z. B. kann ein negatives Sentiment in Kundenbewertungen ein frühes Warnsignal für Qualitätsprobleme oder unzufriedene Kunden sein (Abb. 1, Anwendungsfeld Market Sentiment & Pricing). Ein positives Sentiment kann hingegeben ein Indikator für erfolgreiche Produkte, Dienstleistungen oder Marketingkampagnen sein. Auch im Risikomonitoring oder im Bereich Supply-Chain kann die Sentiment-Analyse von großer Bedeutung sein. Z. B. kann ein Anstieg des negativen Sentiments in Bezug auf ein bestimmtes Land auf wachsende politische Unsicherheit hinweisen (s. Abb. 2), die die Lieferketten eines Unternehmens stören könnte.
Mittlerweile sind durch die weit fortgeschrittene Entwicklung von LLMs auch standpunktabhängige Sentiment-Analysen möglich. Z. B. ist ein zunehmender Bedarf an Verpackungsmaterial für die Umwelt negativ, für die entsprechenden Produzenten von Verpackungsmaterial jedoch positiv.
Abb. 2: Weltkarte mit Diskussionsintensität und Sentiment. Die Größe der Kreise spiegelt die Diskussionsintensität (z. B. Anzahl an Artikeln in den globalen Nachrichten) bzgl. eines bestimmten Themas (z. B. Verfügbarkeit eines bestimmten Rohstoffes) wider. Die Farbe beschreibt das Sentiment (grün bedeutet positiv, gelb neutral und rot negativ).
2.2.2 Textklassifikation
Mit Hilfe von NLP können Texte automatisiert beliebigen Klassen (nicht nur positiv und negativ wie bei der Sentiment-Analyse) zugeordnet werden. Z. B. könnten Texte wie Nachrichtenartikel in bestimmte Risikokategorien klassifiziert werden (neue Regularien, Streiks, Störungen der Lieferketten etc.), um so effektiv und in Echtzeit eine Risikobewertung der aktuellen Situation vornehmen zu können. Dies ist grundsätzlich ohne Trainingsdaten mit der sogenannten Zero-Shot-Klassifikation möglich. Will man jedoch eine hohe Klassifikationsgüte erreichen, setzt man auf Fine-tuning von LLMs. Dabei werden vortrainierte LLMs, die bereits gute Sprachfähigkeiten besitzen, mit Trainingsdaten (Texte samt dazugehörigen Klassen) gefüttert und damit nachtrainiert. Sind die Trainingsdaten hinreichend gut und umfangreich, kann das Modell nach dem Training mit hoher Genauigkeit bisher unbekannte Texte klassifizieren. Mittlerweile ist die Entwicklung von LLMs so weit fortgeschritten, dass in etwa 100 Beispiele pro Klasse ausreichen, um einfache Klassifikationsaufgaben zu automatisieren.