Erst die Disziplin, dann Enter drücken. Die KI wird's nicht für dich richten.
Ein im Juli 2025 veröffentlichtes Paper (GEPA) zeigt: Systematische Prompt-Optimierung — ganz ohne Retraining oder Fine-Tuning — kann Reinforcement Learning (GRPO) auf den untersuchten Benchmarks schlagen.
Die Konsequenz: Ein Großteil der Qualitätsprobleme bei KI-Ergebnissen liegt womöglich gar nicht am Modell, sondern am Briefing.
Was GEPA konkret macht
GEPA verbessert einen initialen Prompt durch strukturierte Reflexion. Das System führt eine Aufgabe aus, analysiert, was schiefgelaufen ist, und verändert die Anweisung gezielt. Dann wiederholt es den Vorgang — systematisch, nicht zufällig. (Du weißt, wozu du selbst tendierst.)
In dieser Reflexionsschleife stecken Hinweise wie fehlende Rahmenbedingungen oder uneindeutige Anforderungen. Anders gesagt: Das System erkennt, dass die Aufgabe unterspezifiziert war — ähnlich wie ein erster Entwurf eines Projektbriefings immer Lücken hat.
Was das bedeutet
Aktuell fließt die Reflexion bei GEPA in bessere Versionen des ursprünglichen Prompts zurück. Es geht noch nicht so weit, beim Nutzer aktiv nachzufragen (das liegt außerhalb von GEPAs Scope) — aber der Mechanismus weist genau in diese Richtung. Und wir wissen alle aus Erfahrung: Das Problem sauber einzugrenzen ist oft der größte Hebel.
Stell dir vor, du briefst einen externen Dienstleister: „Schreib mir eine Marketingstrategie." Kein seriöser Dienstleister würde das als Projektbriefing akzeptieren. Du würdest Rückfragen erwarten. Welcher Markt? Welches Budget? Welcher Zeitrahmen?
KI fragt nicht unbedingt nach. Sie rät — und liefert selbstbewusst etwas Generisches. Stell dir ein System vor, das Lücken in der Aufgabenstellung erkennt und die richtigen Fragen stellt, bevor es irgendetwas produziert (und Zeit verbrennt). Keine heuristischen Nachfragen, sondern Klärungen, die das Ergebnis messbar verbessern.
Das Optimierungsziel verschiebt sich: weg von „eine bessere Antwort erzeugen" hin zu „die Aufgabe so gut definieren, dass gute Ergebnisse der Normalfall sind."
Wen das betrifft
Wenn die entscheidenden Qualitätsgewinne auf der Ebene der Anweisungen liegen, brauchst du nicht zwingend eine Data-Science-Abteilung oder das Budget für Fine-Tuning, um zuverlässigere KI-Ergebnisse zu bekommen. Du brauchst einen besseren Prozess, um zu definieren, was du eigentlich willst. Das verändert, wer mithalten kann — und wie schnell.
Referenz: GEPA-Paper — Hast du es gelesen?