Prompt-Engineering: Prozessmodell

Wie muss man mit KI-Systemen kommunizieren, damit sie einen wirklich verstehen?

Die Grundlage für zielgerichtetes Lernen mit KI ist die Fähigkeit, effizient zu Prompten. Dabei lässt sich das Prompten - so wie das Überarbeiten dieser Prompts - als Schreibkompetenz betrachten. Voraussetzung für gute Prompting-Skills sind zum einen technologisches Vorwissen, das dabei hilft, zu beurteilen, ob und wie KI für die eigenen Zwecke sinnvoll einzusetzen ist. Zum anderen werden hinreichendes Fach- und Methodenwissen zur Überprüfung der inhaltlichen Richtigkeit benötigt.

All diesen anspruchsvollen Fähigkeiten und Kenntnissen liegen jedoch auch basale Kompetenzen zugrunde: Für eine konstruktive, kritisch-reflektierte Nutzung von KI-Tools benötigen Userinnen und User ausreichende Lese- und Schreibkompetenzen sowie einen umfassenden Wortschatz, die einem Spielraum und Optionen ermöglichen, einen Prompt um- oder anders zu formulieren.

Was ist Prompt-Engineering?

Ein Beispiel zur Veranschaulichung:

Eine Lehrkraft bittet ein Sprachmodell um thematische Inspiration für Referatsthemen. Ihr Prompt lautet: "Nenne mir interessante Geräte auf Rädern". Die Vorschläge des Sprachmodells lauten: Auto, Fahrrad, Motorrad und Ähnliches mehr, das die Lehrkraft frustriert zurücklässt, da sie die Antworten als zu naheliegend empfindet.

Warum kann das Sprachmodell hier nicht 'besser' antworten?

Das Problem liegt nicht auf Seiten der KI, sondern auf Seiten der Userinnen und User, die sich über die Voraussetzungen von Kommunikation im Alltag keine Gedanken machen müssen. In der Regel versteht unser Gegenüber, was wir (implizit) meinen, auch wenn wir uns nicht allzu präzise ausdrücken. Die Fähigkeit, sich in die Gedanken anderer hineinzuversetzen fehlt einem Sprachmodell natürlicherweise.* Die Frage lautet also: Woher soll ein Sprachmodell nun wissen, ab wann ein Fortbewegungsmittel mit Rädern als 'interessant' zu klassifizieren ist? Schon zwischen zwei Menschen können sich die Bewertungskriterien von 'interessant' stark unterscheiden.

Was hat das mit Prompt-Engineering zu tun?

Die Antwort auf die obige kann nur lauten: Userinnen und User die Präzision ihrer Formulierungen überprüfen, da ein Sprachmodell weder über Empathie verfügt noch den Kontext einer Anfrage kennen oder verstehen kann.

Eine alternative Formulierung oder auch das Nutzen verschiedener Satzzeichen, eines komplexen oder Mega-Prompts ermöglicht dem Sprachmodell, die Anweisung besser zu prozessieren. Die Lehrkraft formuliert ihren Prompt also folgendermaßen um: "[...] Ich brauche von dir dazu drei Themenvorschläge für "außergewöhnliche Geräte oder Fortbewegungsmittel auf Rädern" {Verkehrsmittel, Reisemittel} [...]".

Durch das Nutzen von Anführungszeichen und geschwungenen Klammern wird dem Sprachmodell vermittelt, welche Informationen von der Lehrkraft als wichtig, welche als variabel klassifiziert wurden. Auch der Austausch des Adjektivs "interessant" durch "außergewöhnlich" ermöglicht dem Sprachmodell, passgenauere Antworten zu generieren.

Was braucht es also für 'gutes' Prompting?

Prompting ist voraussetzungsreich, das skizziert auch das knappe Beispiel oben. Grundlegendes Vorwissen über technologische Besonderheiten (z.B. NLP, Tokenisierung oder Halluzination) unterstützen Userinnen und User bei der Beurteilung ihres Ergebnisses - und ihres Vorhabens. Nicht alles, was man mit KI erledigen möchte, wird eine hohe Qualität haben. Es ist also unabdingbar, dass Userinnen und User ausreichende Beurteilungsfähigkeiten in Bezug auf KI entwickeln.

Das nachfolgende Modell veranschaulicht den Prozess des Promptens/Prompt-Engineerings vor, während und nach der Erstellung von KI-Produkten.

Download des Posters zum Ausrucken (Lehrkräfte)

Sie wollen auch Ihren Schülerinnen und Schülern das Prompt-Engineering näher bringen?

Nutzen Sie gerne die nachfolgende interaktive Präsentation für Ihren Unterricht oder Ihre Vertretungsstunden. Über die Schaltfläche "Reuse" oder "Embedd" können Sie die Präsentation als H5P-Datei downloaden und nutzen. Sie steht (wie auch das obige Poster) unter einer CC-BY-SA 4.0 Lizenz.

 

*Sprachmodelle werden darauf trainiert, menschliche Sprache als 'Muster' zu begreifen. Dieses Muster wird zur Grundlage der statistischen Berechnung, welche Textzusammensetzung zur Anfrage (zum Prompt) passt. Das gelingt durch Natural Language Processing (NLP) und die Tokenisierung von Sprache. Tokens sind Kleinstbestandteile von Wörter (in etwa vergleichbar mit Silben, allerdings nicht synonym zu verstehen).

Zurück