Johannes Nawrath, Dr. Raphael Kozlovsky
Die natürliche Sprachverarbeitung (englisch: Natural Language Processing) ist ein Bereich der KI, der sich mit der Interaktion zwischen Computern und menschlichen Sprachen befasst. Das Hauptziel von NLP besteht darin, Maschinen dazu zu befähigen, menschliche Sprache zu verstehen, zu interpretieren und darauf zu reagieren. Ansätze zur natürlichen Sprachverarbeitung gibt es seit den 1950er Jahren, allerdings haben sich die Methoden über die Zeit stark gewandelt.
Regelbasierte Methoden (1950er-1990er Jahre): In den Anfangsjahren der NLP-Forschung, von den 1950er bis in die 1990er Jahre, lag der Schwerpunkt auf regelbasierten Algorithmen. Diese Algorithmen konnten nur einfache Aufgaben wie Wortzählungen, Stoppwortfilterung oder grundlegende Syntaxanalysen bewältigen. Die Modelle basierten auf manuell erstellten Regeln und waren in ihrer Leistungsfähigkeit eingeschränkt.
Statistische Methoden (1990er-2010er Jahre): Mit dem Aufkommen von Machine Learning in den 1990er Jahren begann die Ära der statistischen Methoden in der NLP-Forschung. Diese Methoden nutzten statistische Modelle und Algorithmen, um Muster in den Daten zu erkennen. Z. B. werden Wahrscheinlichkeiten für das Auftreten bestimmter Wortkombinationen in Texten berechnet, um die Struktur der menschlichen Sprache zu modellieren. Dadurch konnte einfache Textklassifikationen, wie z. B. Spam-Filter für Emails entwickelt werden.
Deep Learning Methoden und LLMs (2010er Jahre bis heute): Seit den 2010er Jahren hat sich der Fokus der NLP-Forschung auf Deep Learning Methoden und insbesondere auf LLMs wie GPT und BERT verlagert. Durch den rasanten Anstieg der Rechenleistung, die Verfügbarkeit riesiger Textdatenmengen aus dem Internet und die Entwicklung besserer Algorithmen haben sich NLP-Systeme zu sogenannten "end-to-end" Modellen entwickelt, die viele Aufgaben auf menschlichem Niveau beherrschen. LLMs sind darauf trainiert, enorme Mengen an Textdaten zu verarbeiten und daraus komplexe Muster und Zusammenhänge abzuleiten. Im Bereich des Controllings bieten sie neue Möglichkeiten, wie z. B. die automatische Generierung von Managementberichten oder die Analyse von unstrukturierten Datenquellen wie E-Mails und Geschäftsberichten.
Die wachsende Bedeutung von NLP und LLMs im Controlling ist auf mehrere Faktoren zurückzuführen. Dazu zählen die rasant wachsenden Datenmengen, die Fortschritte in der Datenanalyse und die zunehmende Verbreitung und Akzeptanz von Künstlicher Intelligenz (KI). Mit diesen Technologien können Unternehmen ihre Entscheidungsfindung verbessern, Prozesse optimieren und neue Geschäftsmöglichkeiten identifizieren.