Mit smarten Prompts mehr aus ChatGPT & Co. herausholen 23. Mai 2023 | 5 Minuten zum Lesen

Mit smarten Prompts mehr aus ChatGPT & Co. herausholen

Inhaltsverzeichnis

Was ist ChatGPT?

Ob im Beruf, Studium oder Alltag - ChatGPT nimmt einen immer höheren Stellenwert in sämtlichen Lebensbereichen ein. Wenn wir ChatGPT nach einer Selbstdefinition fragen, gibt uns die KI folgende Antwort: “ChatGPT ist ein KI-Modell, das auf der GPT (Generative Pre-trained Transformer)-Architektur von OpenAI basiert. Es ist speziell für den Einsatz in Chatbots und Konversationssystemen entwickelt worden. Es ist darauf trainiert, natürlichsprachliche Interaktionen zu verstehen und angemessene Antworten zu generieren.”

Prof. Dr. Thomas Schuster
Prof. Dr. Thomas Schuster
Gründer & Geschäftsführer bei XPACE

„ChatGPT ist mehr als eine Maschine; es ist ein Gesprächspartner, ein Berater und eine Informationsquelle. Es ist an der Schnittstelle von Technologie und Sprache und verbindet das, was wir kennen, mit dem, was wir entdecken.“

Was ist ein Prompt?

Als Prompt in ChatGPT bezeichnen wir einen Befehl bzw. eine Frage, die wir in den Chat mit der KI eintippen und auf Basis derer wir eine Antwort erhalten. Um die Antwortqualität von LLMs (Large Language Models) wie ChatGPT zu optimieren, ist es entscheidend, präzise und klare Prompts zu formulieren und das Modell schrittweise arbeiten zu lassen. Grundsätzlich sollte beim Umgang mit der KI also folgendes beachtet werden: Behandeln Sie das Prompten wie das Verfassen einer Nachricht oder Aufforderung an einen Menschen, der keinerlei Informationen über Ihren spezifischen Kontext besitzt.

Unsere 2 Leitsätze für optimales Prompting

LLMs verfügen zwar über ein umfassendes allgemeines Sprachverständnis und Expertenwissen in vielen Domänen, sind jedoch nicht mit Ihrer konkreten Situation vertraut.

Aus diesem Grundprinzip leiten sich direkt zwei Leitsätze für das Verfassen von Prompts ab:

1. Schreiben Sie den Prompt so präzise und klar wie möglich. Fügen Sie Informationen zu allen Aspekten, die für diese spezielle Aufgabe relevant sein könnten, hinzu. Dazu zählen insbesondere Informationen über den Kontext, Zielgruppen, Verwendungszweck etc. Manchmal ist es auch sinnvoll, dem Modell eine konkrete Rolle zuzweisen (bspw. SEO-Experte), um einen groben Kontext vorzugeben.

2. Geben Sie dem Modell die Möglichkeit, nachzudenken und die Lösung schrittweise zu erarbeiten. LLMs versuchen, Fragen möglichst direkt zu beantworten - was teilweise zu falschen oder irreführenden Antworten führt. Genauso, wie ein Mensch ein komplexes Problem in kleinere Teilprobleme unterteilt, so führt ein schrittweises Vorgehen auch bei LLMs zu besseren Ergebnissen.

Sie möchten ChatGPT in Ihrem Unternehmen einsetzen?

Als IT-Beratungsunternehmen unterstützen wir Unternehmen bei der erfolgreichen Implementierung innovativer KI-Technologien wie ChatGPT. Vereinbaren Sie jetzt eine kostenfreie Erstberatung, um potentielle Einsatzmöglichkeiten von KI in Ihrem Unternehmen zu identifizieren.
Jetzt kontaktieren

5 Tipps inkl. Beispiele

Basierend auf den aufgeführten Leitsätzen lassen sich nun ganz konkret 5 Tipps für die Verwendung von LLMs definieren.

1. Trennzeichen für unterschiedliche Textinhalte verwenden

Um dem Modell das Unterscheiden von Textinhalten, also bspw. die Aufforderung und der dazugehörige Text, auf dem gearbeitet werden soll, verständlicher zu machen, sollten Trennzeichen verwendet werden, die nirgendwo sonst im Text vorkommen (bspw. Dreifach-Anführungszeichen). Zusätzlich verhindert dies auch Attacken mit sog. Prompt Injecting.

Fasse den folgenden Text in 2-3 Sätzen zusammen:
"""
Text, der zusammengefasst werden soll
"""
2. Verhalten in Ausnahmefällen definieren

Unter Umständen kann eine bestimmte Aufgabe nicht in jedem Fall ausgeführt werden. In einem solchen Fall sollte definiert werden, unter welchen Bedingungen sich das Modell wie verhalten soll, um unerwartetes Verhalten oder Fehler zu vermeiden.

Extrahiere Vor- und Nachname aus jedem der folgenden Sätze. 
Wenn es keinen Namen gibt, schreibe "keine Angabe".
"""
Max Mustermann ist ein beliebter Name in Deutschland und wird oft als Beispielname verwendet.
"""
3. Gewünschtes Ausgabeschema definieren

Standardmäßig geben LLMs Text in natürlicher Sprache zurück. In manchen Fällen ist es jedoch praktischer, strukturierten Output wie JSON, HTML oder YAML zu erhalten. Diese Anforderung lässt sich in die Prompt aufnehmen, sodass das Modell entsprechend dem gewünschten Schema antwortet. Es sollte jedoch angemerkt werden, dass es keine Garantie für die Einhaltung des Schemas gibt.

Extrahiere Vor- und Nachname aus dem folgenden Satz. 
Formatiere deine Antwort als JSON mit den Feldern "Vorname" und "Nachname".
"""
Max Mustermann ist ein beliebter Name in Deutschland und wird oft als Beispielname verwendet.
"""
4. Schrittweises Vorgehen beschreiben

Bei der Bearbeitung komplexerer Probleme ist es sinnvoll, dem Modell eine schrittweise Anweisung zu geben, um das Problem zu lösen. Dies führt dazu, dass es die Lösung erarbeitet und nicht sofort versucht, das Ergebnis vorherzusagen.

Ein Haus hat Fenster an allen vier Seiten, die alle nach Süden zeigen. 
Ein Bär läuft an den Fenstern vorbei. Welche Farbe hat der Bär? 

Um das Rätsel zu beantworten, führe die folgenden Schritte aus:
- Überlege, unter welchen Umständen alle Fenster nach Süden zeigen können.
- Überlege, welche Rückschlüsse dies auf die Farbe des Bäres zulässt?
5. Relevante Informationen vor Entscheidung extrahieren lassen

LLMs haben das Problem, dass sie in manchen Situationen Texte generieren, die keinen Sinn im entsprechenden Kontext ergeben („hallucinations“). Um dies zu verhindern und die allgemeine Qualität der Antworten zu erhöhen, sollte das Modell angewiesen werden, erst relevante Informationen aus dem Text zu extrahieren, bevor eine Entscheidung getroffen wird.

Fasse die drei wichtigsten Sätze aus dem folgenden Text zusammen und übersetze sie ins Englische. Extrahiere dazu erst die drei wichtigsten Sätze. Fasse sie dann zusammen und übersetze sie.
"""
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed euismod, sapien vel bibendum bibendum, velit sapien bibendum sapien, vel bibendum sapien sapien vel sapien.
""" 

Implementierung mit XPACE

Im Rahmen des KIVEDU-Projekts setzen wir verstärkt auf LLMs (Large Language Models) wie ChatGPT zur Erkennung von Verbraucherrechtsverletzungen. Während unserer Test- und Evaluationsmaßnahmen konnten wir feststellen, dass die Qualität der Antworten dieser Modelle stark von der Qualität des Eingabetextes (Prompt) abhängt. Unsere Experimente haben gezeigt, dass die Anwendung der genannten Techniken in den meisten Fällen gewährleistet, dass LLMs wie ChatGPT zuverlässige und nützliche Ergebnisse liefern.