Zurück zur Hauptseite

Wie man Prompts für neuronale Netze schreibt

Große Sprachmodelle verstehen natürliche Sprachen (Englisch, Französisch, Deutsch usw.). Daher ähnelt die Kommunikation mit einem Chatbot der Kommunikation mit einer Person. Eine Eingabeaufforderung ist eine Textabfrage, eine Phrase oder eine detaillierte Anweisung von mehreren Absätzen, die wir an einen Chatbot senden. Die Qualität der Antwort hängt davon ab, wie klar und verständlich die Abfrage formuliert ist. In diesem Material werden wir verschiedene Ansätze zur Erstellung von Eingabeaufforderungen untersuchen, damit Sie so effektiv wie möglich mit den Chatbots auf unserer Website – GPT, Claude, Gemini und anderen – interagieren können.

Struktur einer Eingabeaufforderung

Eine Eingabeaufforderung kann die folgenden Elemente enthalten:

  • Ziel, Aufgabe
  • Kontext, Beispiele
  • Ausgabeformat (Liste, Tabelle, Text einer bestimmten Länge – zum Beispiel nicht mehr als 100 Wörter)
  • Einschränkungen (Überprüfung von Fakten, Angabe von Quellen usw.)

Greg Brockman, Mitbegründer und derzeitiger Präsident von OpenAI, hat auf seinem X-Konto ein Beispiel für eine gute Eingabeaufforderung veröffentlicht:

Die Anatomie einer Eingabeaufforderung

Die Anatomie einer Eingabeaufforderung: Ziel, Rückgabeformat, Warnungen, Kontext

Diese Eingabeaufforderung besteht aus 4 logischen Blöcken. Zu Beginn definiert der Autor das Ziel – weniger bekannte Wanderwege mittlerer Länge zu finden, die innerhalb von 2 Stunden Fahrtzeit von San Francisco aus erreichbar sind.

Anschließend wird das Antwortformat festgelegt: Ausgabe der 3 besten Ergebnisse, Angabe des Namens, der Dauer jedes Wanderwegs, der Start- und Endadresse, der besonderen Merkmale usw.

Im nächsten Abschnitt bittet der Autor darum, die Informationen zu überprüfen, sicherzustellen, dass der Wanderweg tatsächlich existiert (große Sprachmodelle neigen zu Halluzinationen und können manchmal nicht existierende Fakten produzieren, daher ist eine zusätzliche Überprüfung wichtig), dass der Name des Wanderwegs korrekt ist und dass er unter diesem Namen in der AllTrails-App zu finden ist.

Im letzten Block fügt der Autor Kontext hinzu: Er erklärt, warum er sich speziell für weniger bekannte Wanderwege interessiert – weil er die beliebtesten bereits gewandert ist – und listet diese auf. Dank dieser Klarstellungen kann der Chatbot besser verstehen, was erforderlich ist, und relevante Informationen vorschlagen. Denn die Formulierung „weniger bekannte Wanderwege” ist an sich recht vage, aber mit zusätzlichen Klarstellungen wird die Aufgabe deutlicher.

Empfehlungen für die Erstellung von Prompts

Prompt Engineering ist halb Kunst, halb Wissenschaft. Wenden wir uns den Spezialisten der Harvard University Information Technology (HUIT) zu, die die Grundprinzipien für die Erstellung von Prompts skizziert haben:

  • Seien Sie konkret. Wichtige Details verringern die Wahrscheinlichkeit ungenauer Antworten. Anstatt einfach „Schreibe eine Geschichte” zu sagen, teilen Sie dem Bot mit, um welche Art von Geschichte es sich handeln soll, ob sie für Kinder oder Erwachsene gedacht ist, welches Genre sie hat und so weiter.
  • Weisen Sie Rollen zu. Wenn Sie den Bot bitten, eine Rolle zu übernehmen und entsprechend zu handeln (z. B. „Verhalte dich so, als wärst du mein Personal Trainer”), können Sie auf einfache Weise überraschend bessere Ergebnisse erzielen.
  • Wählen Sie die Art der Ausgabe: eine Geschichte, einen Bericht, eine Zusammenfassung, einen Dialog, einen Code usw.
  • Verwenden Sie Beispiele und Referenzen. Kopieren Sie beispielsweise einen Absatz und weisen Sie den Bot an, dessen Stil, Ton und Struktur nachzuahmen.
  • Sagen Sie dem Bot nicht nur, was er tun soll, sondern auch, was er nicht tun soll: „Erstelle einen Speiseplan, aber füge keine Schalentiere hinzu, da ich darauf allergisch bin.“
  • Bauen Sie auf dem Gespräch auf, korrigieren Sie Fehler und geben Sie Feedback. Behandeln Sie den Chatbot wie einen Kollegen oder Teamkollegen. Sie können mit einer einfachen Frage beginnen und dann mehr Kontext und Details hinzufügen.
Empfehlungen für die Erstellung von Prompts

Seien Sie klar und konkret, liefern Sie Kontext, probieren Sie verschiedene Eingabeaufforderungen aus, verwenden Sie relevante Schlüsselwörter und verfeinern Sie die Eingabeaufforderung bei Bedarf.

Sie sind sich nicht sicher, wie Sie eine gute Eingabeaufforderung erstellen sollen? Bitten Sie den Chatbot um Hilfe! Beginnen Sie mit einer grundlegenden Idee dessen, was Sie wollen, und bitten Sie die KI, diese für Sie zu erweitern, z. B. „Was soll ich dich fragen, damit du mir beim Schreiben eines Blogbeitrags über KI helfen kannst?“. Und wenn Sie am Ende jeder Eingabeaufforderung einfach „Sag mir, was du sonst noch dafür brauchst“ hinzufügen, können Sie Lücken füllen, die der KI helfen, bessere Ergebnisse zu erzielen.

Gängige Arten von Eingabeaufforderungen und Eingabeaufforderungsmustern

Die MIT Sloan School of Management unterteilt Eingabeaufforderungen in folgende Arten:

TypBeschreibungBeispiel
Zero-Shot-PromptGeben Sie einfache und klare Anweisungen ohne Beispiele. Sehr schnell und einfach zu schreiben, ideal, um eine Idee oder die Fähigkeiten eines Modells bei einer neuen Aufgabe schnell zu testen.„Fassen Sie diesen Artikel in 5 Stichpunkten zusammen.“
Few-Shot-PromptGeben Sie einige Beispiele dafür, was die KI nachahmen soll. Bei nicht trivialen Aufgaben liefert dies oft konsistentere und korrektere Ergebnisse als Zero-Shot.„Hier sind zwei Beispielzusammenfassungen. Verfassen Sie eine dritte im gleichen Stil.“
AnweisungsaufforderungFügen Sie direkte Befehle mit Verben wie „zusammenfassen“, „übersetzen“, „umschreiben“, „klassifizieren“, „schreiben“, „erklären“ usw. ein.„Formulieren Sie die folgende E-Mail prägnanter und professioneller um. Halten Sie sich dabei an maximal 100 Wörter.“ 
Rollenbasierte EingabeaufforderungBitten Sie die KI, eine bestimmte Rolle oder Sichtweise einzunehmen. Das Modell filtert sein Wissen durch die Brille dieser Rolle und liefert so gezieltere und besser anwendbare Informationen.„Verhalten Sie sich wie ein freundlicher Naturwissenschaftslehrer an einer Highschool. Ihre Aufgabe ist es, einer Klasse von 15-Jährigen zu erklären, was eine Blockchain ist. Verwenden Sie eine einfache Analogie und vermeiden Sie Fachjargon.“
Kontextbezogene EingabeaufforderungFügen Sie relevante Hintergrundinformationen oder einen Rahmen hinzu, bevor Sie eine Frage stellen. Dies hilft der KI, ihre Antworten auf ein bestimmtes Publikum oder eine bestimmte Situation zuzuschneiden.„Dieser Text ist für einen Bachelor-Kurs über Verhaltensökonomie bestimmt. Formulieren Sie ihn in einer einfacheren Sprache um.“ 
Meta-Eingabeaufforderung / System-EingabeaufforderungAnweisungen auf Systemebene, die das Verhalten, den Ton oder den Umfang der KI vor jeglicher Benutzereingabe festlegen.„Reagieren Sie immer formell und zitieren Sie echte Quellen. Raten Sie niemals.“ 

Die Fakultät für Informatik der Vanderbilt University in Tennessee bietet die folgende Klassifizierung von Prompt-Mustern an:

  • Eingabesemantik.
  • Anpassung der Ausgabe.
  • Fehlererkennung.
  • Verbesserung von Prompts.
  • Kontextsteuerung.

Eingabesemantik bezieht sich darauf, wie ein großes Sprachmodell Benutzereingaben interpretiert und verarbeitet und sie in eine strukturierte Form übersetzt, die das Modell zur Generierung von Antworten verwenden kann. Dieser Ansatz umfasst die Erstellung einer benutzerdefinierten „Sprache” oder Kurzschrift, die auf bestimmte Aufgaben zugeschnitten ist, wie z. B. die Beschreibung von Grafiken, die Definition von Zustandsmaschinen oder die Automatisierung von Befehlen, wodurch es für Benutzer einfacher wird, komplexe Ideen zu vermitteln, wenn Standard-Eingabemethoden ineffizient sind. Indem das Modell lernt, vordefinierte Regeln zu erkennen und anzuwenden, können Benutzer die Syntax vereinfachen, Wiederholungen reduzieren und Zeit sparen. Beispielsweise könnte ein Benutzer das Modell anweisen, sich zu merken, dass bestimmte Symbole oder Formate bestimmte Bedeutungen haben, sodass prägnante Eingaben intern zu detaillierten Anweisungen erweitert werden können.

Beispiel: „Wenn ich von nun an Namen im Format Stadt1 >> Stadt2 schreibe, interpretiere dies bitte als Aufforderung, eine Reiseroute zwischen diesen beiden Städten zu erstellen, einschließlich Transportmöglichkeiten, geschätzter Zeit und wichtiger Sehenswürdigkeiten.“

Eingabesemantik

Die Anpassung der Ausgabe ist der Prozess der Definition und Steuerung des Formats, der Struktur, des Stils und der Perspektive der Antworten, die von einem großen Sprachmodell generiert werden. Dieser Ansatz ermöglicht es Benutzern, die Ausgabe des Modells an spezifische Anforderungen anzupassen, z. B. durch die Übernahme einer bestimmten Rolle, die Verwendung einer vordefinierten Vorlage oder die Einhaltung einer Abfolge von Schritten, um sicherzustellen, dass die generierten Inhalte konsistent, relevant und umsetzbar sind. Indem sie das Modell anweisen, eine bestimmte Rolle zu übernehmen oder bestimmte Einschränkungen anzuwenden, können Benutzer den Fokus, den Ton und die Tiefe der Antwort steuern und sie so für berufliche, pädagogische oder spezialisierte Kontexte geeignet machen.

Beispiel: „Wenn ich dich in Zukunft um eine Produktbewertung bitte, verhalte dich wie ein professioneller Technik-Rezensent. Gliedere deine Antwort in drei Abschnitte: Vorteile, Nachteile und Fazit. Verwende einen neutralen Ton und konzentriere dich auf Leistung, Design und Preis-Leistungs-Verhältnis.“

Die Fehlererkennung konzentriert sich auf die Identifizierung und Behebung von Fehlern in den vom Modell generierten Ausgaben. Sie hilft Benutzern, die Zuverlässigkeit der generierten Inhalte zu überprüfen, versteckte Verzerrungen oder Fehler aufzudecken und ihre Suchanfragen für genauere Ergebnisse zu verfeinern, was besonders wichtig ist, da Chatbots dazu neigen, plausible, aber falsche Informationen zu liefern.

Beispiel: „Wenn Sie medizinische Symptome erklären, listen Sie am Ende immer die wichtigsten medizinischen Annahmen auf, auf denen Ihre Diagnose basiert. Überlegen Sie auch, warum Sie diese Annahmen getroffen haben, weisen Sie auf Unsicherheiten in Ihrer Antwort hin und erwähnen Sie mögliche alternative Erkrankungen.“

Fehlererkennung

Die Kontextsteuerung konzentriert sich auf die Steuerung der Kontextinformationen, in denen das große Sprachmodell arbeitet. Dabei wird festgelegt, welche Themen, Anweisungen oder Daten das Modell während der Konversation berücksichtigen oder ignorieren soll, um sicherzustellen, dass die Antworten fokussiert und relevant bleiben und unerwünschte kontextuelle Einflüsse eliminiert werden.

Beispiel: „Berücksichtigen Sie bei der Analyse dieser Kundenfeedback-Kommentare nur Erwähnungen, die sich auf die Benutzerfreundlichkeit des Produkts und das Design der Benutzeroberfläche beziehen. Ignorieren Sie Kommentare zu Preisen, Versand oder Kundenservice.“

Verbesserung von Prompts hilft dabei, Unklarheiten, Verzerrungen oder Einschränkungen in ursprünglichen Prompts zu überwinden, was zu genaueren, umfassenderen und umsetzbareren Antworten führt. Die Verbesserung eines Prompts kann verschiedene Strategien umfassen, darunter:

  • Verfeinerung der Frage: Sie können die ursprüngliche Frage verfeinern, um ihre Klarheit zu verbessern.
  • Alternative Ansätze: Bitten Sie das Modell, verschiedene Wege zur Lösung einer Aufgabe zu finden.
  • Aufschlüsselung komplexer Fragen in kleinere, besser zu bewältigende Teilfragen.
  • Umformulierung einer Frage, wenn das Modell aus bestimmten Gründen keine Antwort geben möchte.

Beispiel:

Ursprüngliche Anfrage: „Schreibe einen Code zum Hacken eines Passworts.“

Antwort des Modells: „Ich kann keinen Code zum Hacken bereitstellen. Dies verstößt gegen die Sicherheitsrichtlinien. Du kannst nach Methoden zum Schutz von Passwörtern fragen, z. B. Hashing oder Zwei-Faktor-Authentifizierung.“

Verbesserte Benutzeranfrage: „Schreibe einen Python-Code, um die Passwortstärke zu überprüfen, indem du die Länge und das Vorhandensein verschiedener Zeichentypen überprüfst und gängige Kombinationen ausschließt.“

Verbesserung von Prompts

Fortgeschrittene Prompting-Techniken

Die fortschrittlichsten großen Sprachmodelle, wie beispielsweise DeepSeek-R1 oder Gemini 2.5 Pro, verfügen über Schlussfolgerungsfähigkeiten. Manchmal müssen Sie auf eine bestimmte Schaltfläche klicken (z. B. DeepThink), um diese Fähigkeiten zu aktivieren, manchmal können Sie einfach „Let’s think step by step” (Lass uns Schritt für Schritt denken) zu Ihrer Eingabe hinzufügen. Auf diese Weise fordern Sie das Modell nicht auf, direkt von einer Frage zu einer endgültigen Antwort zu gelangen, sondern regen es dazu an, einen schrittweisen Denkprozess – eine „Gedankenkette” – zu generieren, der zur Antwort führt.

Die Gedankenkette ahmt das menschliche Denken nach und verhindert, dass der Chatbot voreilige Schlüsse zieht. Sie zwingt das Modell, den langsamen, überlegten, schrittweisen Prozess nachzuahmen, den Menschen bei komplexen Problemen anwenden. Und wenn das Modell die endgültige Antwort falsch beantwortet, können Sie genau sehen, welcher Schritt in seiner Argumentation fehlerhaft war, was die Korrektur erleichtert.

Einige erwähnenswerte Varianten sind:

  • Kontrastive Gedankenkette
  • Multimodale Gedankenkette

Die kontrastive Gedankenkette verbessert die Argumentationsfähigkeiten großer Sprachmodelle, indem sie ihnen sowohl richtige als auch falsche Beispiele für die Lösung eines Problems präsentiert.

Kontrastive Gedankenkette

Kontrastive Gedankenkette

Durch das explizite Aufzeigen der zu vermeidenden Fehler hat sich gezeigt, dass Contrastive Chain of Thought die Leistung bei verschiedenen Benchmarks zum logischen Denken deutlich steigert. So hat Contrastive Chain of Thought beispielsweise beim GSM8K-Benchmark für arithmetisches Denken eine deutliche Steigerung der Genauigkeit im Vergleich zu Standard Chain of Thought gezeigt.

Multimodale Gedankenkette integriert Text und Bild in einen zweistufigen Rahmen. Eine Eingabeaufforderung könnte beispielsweise so aussehen: „Schauen Sie sich die Verkaufscharts an. Beschreiben Sie Ihre Schritte: Was sehen Sie auf der X- und Y-Achse? Wie sieht der Trend aus? Welche Schlussfolgerung können Sie daraus ziehen?“ Das Modell beschreibt zunächst die visuellen Informationen und bildet dann Schritt für Schritt eine darauf basierende Schlussfolgerung.

Multimodale Gedankenkette

Multimodale Gedankenkette

Im obigen Bild wird das Modell aufgefordert, auszuwählen, welche Eigenschaft die beiden Objekte gemeinsam haben: Sind sie beide A) weich oder B) salzig?

Weitere erwähnenswerte fortgeschrittene Prompting-Techniken:

  • Selbstkonsistenz: Anstelle einer einzigen „Gedankenkette” generiert das Modell mehrere Argumentationspfade und wählt dann die konsistenteste und häufigste Antwort aus.
  • Gedankenbaum: Das Modell untersucht mehrere mögliche Lösungspfade (wie die Äste eines Baumes), bewertet die Aussichten jedes einzelnen und vertieft sich in die vielversprechendsten.
  • Step-Back-Prompting: Das Modell formuliert zunächst allgemeine Prinzipien oder abstrakte Konzepte im Zusammenhang mit der Frage („macht einen Schritt zurück“) und wendet diese dann an, um eine präzise Antwort zu finden.

Mehr über diese und andere Techniken erfahren Sie hier.

Fortgeschrittene Prompting-Techniken

Quelle: promptingguide.ai

Dort finden Sie auch Links zu wissenschaftlichen Studien über jede dieser Techniken.

Wo Sie gute Prompts finden

Es gibt viele Websites, auf denen Sie fertige Prompts finden können, sowohl kostenpflichtige als auch kostenlose. Solche Websites werden als „Prompt-Bibliotheken” bezeichnet. Hier sind einige davon:

  • Snack Prompt. Ein-Klick-Lösungen zur Generierung von Inhalten und leistungsstarke mehrstufige Prompts für fortgeschrittene Anwendungsfälle. Jeder Prompt wird von den Community-Mitgliedern bewertet.
  • Anthropic’s Prompt Library. Maßgeschneidert für Claude-Nutzer und -Entwickler.
  • God of Prompt. Eine große Bibliothek mit Prompts zu Themen wie Finanzen, Bildung, Produktivität, Schreiben usw.
  • PromptBase. Über 230.000 vorgefertigte Text-, Audio- und Video-Prompts für GPT, Claude, Gemini, DeepSeek und andere neuronale Netzwerke.
Prompt-Bibliotheken

Prompt-Bibliotheken

Es gibt auch Dienste wie PromptPerfect, mit denen Sie Ihre eigenen Prompts für verschiedene Modelle optimieren können.

Durch die Anwendung der in diesem Artikel beschriebenen Techniken und Empfehlungen zur Erstellung von Prompts und die Verwendung von Bibliotheken mit vorgefertigten Lösungen können Sie also einen Prompt zur Lösung jeder Aufgabe erstellen oder finden.

Vergessen Sie auch nicht, dass unsere Website eine Vielzahl verschiedener Sprachmodelle anbietet, sodass es sinnvoll sein kann, zwischen ihnen zu wechseln und zu experimentieren, um die besten Ergebnisse zu erzielen.