Signals
Signal27. Februar 2026

Prompt-Optimierer verschleiern, was du eigentlich willst

Ich habe OpenAIs Prompt Builder auseinandergenommen — mit einer simplen Aufgabe: „Prüfe meinen Posteingang auf gesendete E-Mails, die keine Antwort bekommen haben." Der Input: ca. 15 Wörter. Der Output: ca. 350 Wörter.

Was der Builder tatsächlich gemacht hat

  1. Die Aufgabe wird als Systemanweisung umformuliert
  2. Sonderfälle ergänzt (Thread-Antworten vs. direkte Antworten)
  3. Denkgerüst eingefügt („think step-by-step", „continue until all are checked")
  4. Ein JSON-Ausgabeschema definiert
  5. Ein erfundenes Beispiel eingefügt
  6. Eine abschließende Wiederholung des Ziels angefügt

Das Problem: Vieles davon ist Rauschen

Einiges hat durchaus Wert — aber ein großer Teil des aufgeblähten Prompts wirkt wie Füllmaterial. Besonders auffällig:

  • „Think step-by-step" — bringt bei modernen Modellen für strukturierte Aufgaben kaum noch etwas
  • „Continue analyzing until all are checked" — Modelle hören nicht mittendrin auf; das ist Fülltext
  • Abschließende Wiederholungen — minimaler Nutzen, außer bei sehr langen Kontexten

Was tatsächlich die Zuverlässigkeit erhöht — und auch eine sinnvolle Ergänzung war — ist das Datenschema und die (Sonder-)Fallspezifikation. Alles andere ist Rauschen zwischen dir und dem Ergebnis.

Ein erfahrener Mensch würde das so formulieren

Prüfe meine gesendeten E-Mails und finde alle, die keine Antwort bekommen haben. Berücksichtige den gesamten Thread, nicht nur direkte Antworten. Gib für jede unbeantwortete E-Mail ein JSON zurück mit: Betreff, Sendedatum, Empfänger, E-Mail-ID, Thread-ID und einem kurzen Textauszug. Erstelle außerdem für jede einen höflichen Follow-up-Entwurf.

~50 Wörter. Sharp Intent.

Der eigentliche Unterschied: Prompt Engineering vs. Intent Definition

  • Intent Definition = klar machen, was du wirklich willst. Was ist das Ziel, wie sieht Erfolg aus, welche Einschränkungen gibt es. Funktioniert unabhängig davon, welches Modell den Prompt liest.
  • Prompt Engineering = Schwächen des Modells kompensieren. Taktisch, modellabhängig, veraltet mit jedem Modellfortschritt.

Ein klar definierter Intent braucht in der Regel weniger Prompt Engineering, nicht mehr.

Fazit

  • Formuliere deinen Intent präzise und ohne Rauschen — er bleibt das stabile Asset, das Modellgenerationen überdauert.
  • Modellspezifische Optimierung ist nach wie vor sinnvolle Arbeit, aber sie sollte nicht deine kognitive Last sein. Das ist ein Übersetzungsproblem, das Tools im Hintergrund lösen sollten.