Prof. Dr. Mike Schulze, Felix Broßmann
Die nötigen Grundlagen für die Erstellung effektiver Prompts sind verhältnismäßig einfach zu erlernen. Zugleich gibt es im Bereich des Prompt-Engineerings viele fortgeschrittene Techniken, die es ermöglichen, die Ausgaben generativer Sprachmodelle weiter zu verfeinern und zu optimieren.
Einige dieser Techniken basieren auf der Idee, das Modell mit unterschiedlichen Mengen an Informationen oder Beispielen zu "trainieren", bevor es eine Antwort gibt. Hierzu gehören Ansätze wie:
Zero Shot Prompting (Standardfall): In diesem Fall wird das Modell ohne vorherige spezifische Beispiele oder Informationen zu einem Thema befragt.
Beispiel: "Erkläre die Nutzung der Balanced Scorecard im Controlling."
One Shot Prompting: Das Modell erhält ein einzelnes, relevantes Beispiel, bevor es eine Anfrage beantwortet.
Beispiel: "So wie ein Unternehmen Key Performance Indicators (KPIs) verwendet, um den Erfolg zu messen, wie könnte ein Bildungsinstitut seine Leistung messen?"
Few Shot Prompting: Das Modell wird mit mehreren relevanten Beispielen versorgt, um es auf eine spezifische Anfrage vorzubereiten.
Beispiel: "Ein Unternehmen könnte eine SWOT-Analyse verwenden, um seine strategische Position zu bewerten. Ein Vertriebsteam könnte CRM-Software verwenden, um Kundenbeziehungen zu verwalten. Wie könnte eine Personalabteilung Big Data nutzen?"
Ein weiteres Beispiel fortgeschrittener Ansätze ist der sogenannte "Chain of Thoughts"-Ansatz. Dabei handelt sich um eine Methode, bei der ein Sprachmodell dazu ermutigt wird, seinen Denk- oder Lösungsweg Schritt für Schritt zu erklären, wenn es eine Aufgabe löst. Der dahinterliegende Gedanke ist, dass durch das Zeigen von Beispielen, in denen der Denkprozess erklärt wird, das Modell lernt, seinen eigenen Denkprozess beim Beantworten von Fragen zu zeigen. Diese Art des Prompting kann dazu führen, dass die Antworten des Modells genauer werden, da es gezwungen ist, über jeden Schritt seiner Antwort nachzudenken, was besonders bei komplexen Aufgaben sehr hilfreich sein kann. Außerdem macht diese Darstellung die Ergebnisse der KI für einen selbst transparenter.
Abb. 3: Beispiel für die Eingabe einer Anweisung an die KI nach dem "Chain of Thoughts"-Ansatz
Darüber hinaus entwickeln derzeit sich eine ganze Reihe weiterführende Prompt-Techniken wie Tree-of-Thoughts oder Graph-of-Thoughts, die durch mittels unterschiedlicher Reflexionstechniken, die von Sprachmodellen erzeugten Outputs nochmals um ein Vielfaches verbessern.
Insgesamt lässt sich festhalten, dass die Wahl der richtigen Prompt-Technik stark von der spezifischen Anfrage und dem gewünschten Ergebnis abhängt. Hier hilft im Ergebnis nur das fortwährende Einüben unterschiedlicher Techniken durch die Nutzenden.