Zum Inhalt springen
deep-dives · 5 min Lesezeit

Simon Willison zeigt: So funktioniert der OpenAI Codex System Prompt (2026)

Simon Willison analysiert den System Prompt von OpenAI Codex – ein Praxisbeispiel für effektive KI-Agenten-Kommunikation.

coding-agent openai-codex system-prompt agentic-engineering simon-willison

Coding Agents arbeiten mit unsichtbaren Anweisungen, die oft hunderte Zeilen umfassen – sogenannte System Prompts. In seinem neuen Guide analysiert Simon Willison den aktuellen Prompt von OpenAI Codex und zeigt, was Agenten-Entwickler davon lernen können.

Seit dem Launch von OpenAI Codex und Claude Code hat sich die Welt der Coding-Agenten rasant entwickelt. Doch was genau steckt hinter diesen scheinbar magischen Helfern? Simon Willison, bekannter Entwickler und Autor, hat jetzt ein neues Kapitel seiner Agentic Engineering Patterns veröffentlicht, das den Vorhang lüftet. Im Fokus: der System Prompt von OpenAI Codex (Stand März 2026) – ein detailliertes Beispiel dafür, wie man einem KI-Modell beibringt, produktiv im Terminal zu arbeiten.

Was ist ein System Prompt überhaupt?

In seinem Guide „How coding agents work“ erklärt Willison zunächst die Grundlagen: Ein Coding Agent ist im Kern eine Software, die ein Large Language Model (LLM) mit zusätzlichen Fähigkeiten ausstattet – über unsichtbare Prompts und aufrufbare Tools.

„Coding agents usually start every conversation with a system prompt like this, which is not shown to the user but provides instructions telling the model how it should behave. These system prompts can be hundreds of lines long.“

Im Gegensatz zur sichtbaren Konversation mit dem Nutzer bestimmt der System Prompt das grundlegende Verhalten des Agents: Wie formatiert er Antworten? Welche Tools stehen zur Verfügung? Wie geht er mit Git-Änderungen um? Diese Anweisungen sind entscheidend für die Benutzererfahrung und Effizienz.

Der OpenAI Codex Prompt im Detail

Willison verlinkt direkt zum aktuellen System Prompt im Codex-Repository auf GitHub. Dort finden sich auf rund 200 Zeilen präzise Vorgaben für GPT‑5.2-basierte Codex-Instanzen. Einige Highlights:

1. Formatierung für scannbare Antworten

Der Prompt legt fest, dass Codex GitHub-flavored Markdown nutzen darf, aber mit klaren Einschränkungen:

  • Keine verschachtelten Aufzählungen („Never use nested bullets“)
  • Überschriften nur bei Bedarf, kurz und in Title Case
  • Code-Snippets in abgesetzten Blöcken mit Sprachangabe
  • Dateipfade in Inline-Code für Klickbarkeit

Diese Regeln sorgen dafür, dass die Terminal-Ausgabe strukturiert, aber nicht überladen wirkt.

2. Workspace-Awareness und Sicherheit

Codex arbeitet im selben Workspace wie der Nutzer – der Prompt betont daher:

  • „Never tell the user to ‚save/copy this file‘, the user is on the same machine“
  • Bei unerwarteten Änderungen, die nicht vom Agent stammen: STOP IMMEDIATELY und frage den Nutzer
  • Keine destruktiven Git-Befehle wie git reset --hard ohne explizite Genehmigung
  • Bei Dirty-Git-Worktrees: Änderungen anderer nicht revertieren

Das schützt vor unbeabsichtigten Datenverlusten und fördert kollaboratives Arbeiten.

3. Tool-Nutzung und Planung

Der Prompt regelt, wann Codex das Planning Tool einsetzen soll:

  • Für einfache Aufgaben (etwa die einfachsten 25 %) entfällt die Planung (laut Prompt: „Skip using the planning tool for straightforward tasks (roughly the easiest 25%)“)
  • Keine Ein-Schritt-Pläne
  • Nach Ausführung eines Planungsschritts den Plan aktualisieren
  • Für Code-Reviews: Fokus auf Bugs, Risiken, fehlende Tests – mit Datei‑/Zeilenreferenzen

4. Frontend-Design: Kampf gegen „AI-Slop“

Besonders interessant sind die Richtlinien für UI‑Aufgaben:

  • Vermeide „AI-Slop“ – also generische, langweilige Layouts
  • Typografie: Nutze expressive Fonts, keine Default-Stacks (Inter, Roboto, Arial)
  • Farbe & Look: Definiere CSS-Variablen, vermeide Purple‑Bias oder Dark‑Mode‑Bias
  • Motion: Ein paar bedeutungsvolle Animationen statt generischer Mikrobewegungen
  • Hintergrund: Keine flachen Einfarbflächen – lieber Gradienten, Shapes, subtile Muster

„Aim for interfaces that feel intentional, bold, and a bit surprising.“

Eine klare Absage an die uniformen KI-generierten Designs, die viele Tools produzieren.

Was Entwickler daraus lernen können

Willisons Analyse bietet mehr als nur eine Prompt‑Tour. Sie zeigt praktische Muster, die auch für eigene Agenten‑Projekte relevant sind:

Klare Formatierungsregeln

Ein guter System Prompt definiert, wie Antworten aussehen sollen – ohne Spielraum für Interpretation. Das gilt besonders bei Terminal‑Tools, wo Lesbarkeit entscheidend ist.

Sicherheits‑ und Workspace‑Boundaries

Coding Agents haben Zugriff auf echte Dateien. Der Prompt muss daher Schutzmechanismen einbauen, um Nutzerfehler und Datenverlust zu vermeiden. Willison nennt das „safe by default“.

Tool‑Selection Heuristiken

Wann plant der Agent voraus? Wann führt er direkt aus? Der Codex‑Prompt gibt konkrete Schwellenwerte („easiest 25%“ – siehe oben; Quelle: Codex Prompt auf GitHub) – ein Ansatz, der Rechenzeit spart und Nutzer nicht mit unnötigen Plänen überfordert.

Design‑Guidelines gegen KI‑Eintönigkeit

Die Frontend‑Regeln zeigen, wie man kreative Einschränkungen setzt, um generische Outputs zu vermeiden. Das ist übertragbar auf jede Domäne, in der KI‑Agenten gestalterisch tätig werden.

Warum das für die Agenten‑Entwicklung wichtig ist

System Prompts sind kein Geheimwissen mehr – sie werden zunehmend öffentlich dokumentiert und diskutiert. Willisons Guide ist Teil dieser Transparenz‑Bewegung. Für Entwickler, die mit Codex, Claude Code oder eigenen Agenten‑Harnessen arbeiten, bietet der Einblick mehrere Vorteile:

  1. Lernvorlage: Der Codex‑Prompt zeigt, wie man komplexes Verhalten in klare Anweisungen gießt.
  2. Best Practices: Sicherheit, Formatierung, Tool‑Steuerung – viele Regeln sind universell anwendbar.
  3. Inspiration: Die Anti‑„AI‑Slop“‑Richtlinien ermutigen dazu, auch bei KI‑Unterstützung gestalterische Ansprüche zu behalten.

Fazit: Vom Black Box zum verständlichen Werkzeug

Simon Willison macht mit seiner Analyse deutlich: Coding Agents sind keine Magie, sondern durchdachte Software‑Konstrukte. Der System Prompt ist ihr „Betriebssystem“ – je besser er verstanden wird, desto effektiver können Entwickler ihn nutzen und anpassen.

Der vollständige Guide „Agentic Engineering Patterns“ wächst kontinuierlich und ist eine wertvolle Ressource für alle, die mit KI‑Agenten arbeiten. Wer den OpenAI Codex Prompt selbst studieren möchte, findet ihn direkt auf GitHub.

Nächster Schritt: Probieren Sie die Muster in Ihren eigenen Projekten aus – ob mit Codex, Claude Code oder einem eigenen Agenten‑Setup. Die Qualität der System‑Prompts entscheidet oft über den praktischen Nutzen.

Transparenz

Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.