„Sie sind ChatGPT“: Durchgesickerte Systemaufforderung enthüllt die Funktionsweise von GPT-5

Was ist passiert? Eine angebliche GPT-5 -Systemaufforderung ist dieses Wochenende über Reddit und GitHub durchgesickert. Die Eingabeaufforderung enthüllt die genauen Regeln, die ChatGPT für die Interaktion mit Benutzern und die Ausführung verschiedener Aufgaben gegeben wurden.

  • Ein Reddit-Benutzer behauptet, die „wörtliche Systemaufforderung und Tooling-Informationen“ für GPT-5 , das neueste große Sprachmodell (LLM) von OpenAI, entdeckt zu haben.
  • Die gesamte Eingabeaufforderung erschien einen Tag zuvor auch auf GitHub .
  • Die Eingabeaufforderung beginnt mit den Worten: „Sie sind ChatGPT, ein großes Sprachmodell, das auf dem GPT-5-Modell basiert und von OpenAI trainiert wurde.“
  • Anschließend wird der Wissens-Cutoff für GPT-5 angegeben, der bei 2024-06 liegen soll.
  • Die Persönlichkeit wird als „v2“ aufgeführt, was korrekterweise darauf hindeutet, dass ChatGPT im Laufe der Zeit einige Persönlichkeitsänderungen durchlaufen hat.
  • Die Befehle geben einen guten Einblick in die Art der Antworten, die ChatGPT jetzt anbieten darf, und zeigen, wie das Unternehmen versucht,
  • Eine bemerkenswerte Änderung besagt, dass GPT-5 Folgendes nicht sagen darf: „Möchten Sie, dass ich das tue? Möchten Sie, dass ich das tue? Möchten Sie, dass ich das tue? Wenn Sie möchten, kann ich das? Lassen Sie mich wissen, ob Sie möchten, dass ich das tue? Soll ich? Soll ich?“
  • Obwohl beide Quellen behaupten, dass die Systemaufforderung hundertprozentig echt sei, stellen Benutzer von Hacker News ihre Authentizität und Reproduzierbarkeit in Frage und weisen darauf hin, dass Lockvogel-/Kanarienvogelaufforderungen möglich seien.

Dies ist wichtig, weil: Wenn der Text echt ist, bietet er einen seltenen Einblick in die Steuerung von ChatGPT; wenn er gefälscht ist, zeigt er, wie einfach es ist, plausibel wirkende „Lecks“ zu streuen.

  • Das System fordert zu Formton, Sicherheitsverhalten und Werkzeuggebrauch auf.
  • Lecks können Aufschluss über Jailbreak-Versuche geben, vor allem aber geben sie uns Einblick in die Funktionsweise von LLMs.
  • Diese Änderungen könnten die Nutzung von GPT-5 deutlich vereinfachen. Es gibt auch Erwähnungen von Automatisierungstools, beispielsweise zum Erstellen täglicher Aufgaben.
  • Allerdings betonen die Startmaterialien von OpenAI den Router/Reasoning-Stack von GPT-5 und nicht ein einzelnes statisches Skript, was die Idee einer einzigen kanonischen Eingabeaufforderung untergräbt.

Warum sollte mich das interessieren? Wenn der Benutzer den genauen Inhalt der Systemaufforderung kennt, erhält er einen guten Einblick in die Art der von GPT-5 verwendeten Daten und wie es darauf reagiert.

  • Die gemunkelte Systemaufforderung zeigt einige von OpenAI vorgenommene Änderungen, die sich auf die Art und Weise auswirken, wie GPT-5 kommuniziert.
  • Dazu gehört: „Wenn der nächste Schritt offensichtlich ist, tun Sie ihn.“ und „Stellen Sie höchstens eine notwendige klärende Frage zu Beginn, nicht am Ende.“
  • Es gibt auch ausführliche Richtlinien zum Erstellen von Bildern, einschließlich Bildern von Ihnen selbst.
  • Die Authentizität ist nicht bewiesen; der Kern der Aussage könnte unvollständig, abgestanden oder absichtlich gestreut sein.

Okay, wie geht es weiter? Es ist damit zu rechnen, dass OpenAI-Dokumente und Systemdateien ständig aktualisiert werden.

  • Selbst wenn diese Systemaufforderung real ist, besteht die Möglichkeit, dass sie sich mit jeder einzelnen Version des Modells und möglicherweise mit jedem einzelnen kleinen Update, das an das LLM gesendet wird, ändert.
  • OpenAI hat keine Systemaufforderung veröffentlicht oder bestätigt; offizielle GPT-5-Materialien beschreiben ein geroutetes System, kein statisches Skript.