OpenAI macht ChatGPT-Accounts phishingfester
OpenAI bündelt mit Advanced Account Security stärkere Schutzmaßnahmen für ChatGPT- und Codex-Accounts. Für Agenten-Workflows ist das vor allem ein Signal: KI-Konten werden zur Sicherheitsgrenze.
OpenAI zieht die Sicherheitsleine bei Konten, die mehr sind als ein Chatfenster. Mit Advanced Account Security führt OpenAI eine Opt-in-Einstellung für ChatGPT-Accounts ein, die Anmeldung, Wiederherstellung und Sitzungsschutz verschärft. Für Agenten-Builders ist besonders relevant: Laut OpenAI gilt der Schutz auch für Codex, wenn beide Dienste über denselben Login genutzt werden.
Das ist mehr als eine weitere Zwei-Faktor-Option. OpenAI beschreibt die Einstellung als Schutzpaket für Menschen mit erhöhtem Risiko digitaler Angriffe, etwa Journalisten, gewählte Amtsträger, politische Dissidenten, Forschende und besonders sicherheitsbewusste Nutzer. Help Net Security ordnet den Schritt ähnlich ein: ChatGPT nähert sich damit Sicherheitsmustern an, die Hochrisiko-Nutzer von anderen großen Plattformen kennen.
Der größere Punkt liegt in der Rolle des Kontos selbst. Ein KI-Account enthält heute nicht nur Prompts. Er kann persönliche Kontexte, berufliche Dokumente, Projektwissen, verbundene Tools und wiederkehrende Arbeitsabläufe bündeln. Wer Agenten produktiv nutzt, hängt an diesem Login oft deutlich mehr auf als nur Gesprächsverlauf.
Anmeldung ohne Passwort für Risikokonten
Advanced Account Security verlangt laut OpenAI Passkeys oder physische Sicherheitsschlüssel und deaktiviert die passwortbasierte Anmeldung. Damit setzt OpenAI auf phishingresistente Verfahren statt auf Passwörter, die sich abfangen, wiederverwenden oder über gefälschte Login-Seiten stehlen lassen.
Help Net Security beschreibt die Änderung konkreter: Eingeschriebene Konten melden sich über Passkeys oder Hardware-Sicherheitsschlüssel an; Passwort-Login ist deaktiviert. Nutzer können dafür FIDO-konforme Sicherheitsschlüssel oder softwarebasierte Passkeys verwenden. OpenAI kooperiert zudem mit Yubico und bietet laut Help Net Security ein vergünstigtes Bundle aus zwei YubiKeys an.
Für normale Nutzer klingt das nach zusätzlichem Aufwand. Für Teams mit sensiblen Agenten-Workflows ist es eher eine überfällige Verschiebung: Der Login wird nicht mehr als bequemer Zugang behandelt, sondern als Grenze zu einem Arbeitskontext, der sich nach einem Account-Takeover nicht einfach zurückdrehen lässt.
Härtere Wiederherstellung, weniger Komfort
Der stärkere Schutz hat eine klare Kehrseite. OpenAI weist darauf hin, dass Advanced Account Security mehr Verantwortung bei der Kontowiederherstellung bedeutet. Help Net Security berichtet, dass einfache Wiederherstellungswege über Kommunikationskanäle bei aktivierter Einstellung wegfallen. Stattdessen stützt sich die Wiederherstellung auf Backup-Passkeys, Sicherheitsschlüssel und Recovery Keys, die der Nutzer selbst verwaltet.
Das schließt einen typischen Angriffsweg: Wenn ein Angreifer Zugriff auf verbundene Kommunikationskonten bekommt, kann er nicht einfach über klassische Wiederherstellung den ChatGPT-Zugang übernehmen. Gleichzeitig wird der Verlust eigener Backup-Zugänge deutlich ernster. Help Net Security schreibt, dass OpenAI Support nach der Aktivierung nicht bei der Wiederherstellung helfen kann.
Diese Entscheidung ist unbequem, aber folgerichtig. Wer Hochrisiko-Schutz einschaltet, tauscht einfache Rettungswege gegen eine geringere Angriffsfläche. Für einzelne Power-User kann das ausreichen. Organisationen brauchen zusätzlich saubere Prozesse: mehrere Schlüssel, dokumentierte Recovery-Verantwortung und keine einzelne Person als stillen Single Point of Failure.
Warum Codex die Änderung für Agenten relevant macht
Der Codex-Bezug reicht über klassische Account-Sicherheit hinaus. OpenAI sagt, dass Advanced Account Security auch Codex schützt, wenn der Zugang über denselben Login läuft. Damit betrifft die Einstellung nicht nur Gespräche mit ChatGPT, sondern auch Entwickler-Workflows, in denen Codex mit Code, Repositories oder lokalen Aufgaben verbunden sein kann.
Gerade dort ist Account Takeover besonders unangenehm. Ein kompromittierter KI-Account kann Hinweise auf interne Projekte, Architekturentscheidungen oder laufende Experimente enthalten. Wenn Codex in den Arbeitsalltag eingebunden ist, wird der Account zum Zugangspunkt für Kontext: nicht zwingend direkt zu Produktionssystemen, aber zu genug Wissen, um Angriffe besser vorzubereiten.
OpenAI nennt außerdem kürzere Sign-in-Sitzungen als Teil des Pakets. Help Net Security beschreibt das Ziel so, dass die Exposition sinken soll, falls ein Gerät oder eine aktive Sitzung kompromittiert ist. Für Agenten-Setups ist das relevant, weil viele Workflows auf Dauerbetrieb, Browser-Sessions und wiederkehrende Tool-Nutzung setzen. Mehr Bequemlichkeit ist dort nicht automatisch mehr Sicherheit.
Trainings-Opt-out als zusätzlicher Baustein
Ein weiterer Baustein betrifft die Nutzung von Konversationen für Modelltraining. Help Net Security berichtet, dass Gespräche von Konten mit aktivierter Einstellung automatisch vom Modelltraining ausgeschlossen werden. OpenAIs eigener Beitrag betont sensible persönliche und berufliche Kontexte sowie stärkere Sicherheits- und Privatsphäreentscheidungen für Nutzer.
Das ersetzt keine Datenklassifizierung und keine interne Policy. Es passt aber zur Zielgruppe: Wer Advanced Account Security aktiviert, verarbeitet vermutlich eher Material, das nicht in Trainingsdaten landen soll. Für kleine Teams ist es praktisch, wenn diese Entscheidung nicht von einer separat gepflegten Einstellung abhängt.
Die Grenze bleibt trotzdem klar: Account-Sicherheit schützt den Zugang zum Konto. Sie prüft nicht, ob Nutzer vertrauliche Daten überhaupt in ein KI-System geben dürfen, und sie ersetzt keine Rechteverwaltung in angebundenen Tools. Wer Agenten produktiv einsetzt, braucht beides: stärkere Login-Sicherheit und eine bewusste Begrenzung dessen, was der Agent sehen darf.
Sicherheitsfeature mit Produktbotschaft
Advanced Account Security ist vordergründig ein Schutzpaket für gefährdete Nutzer. Produktstrategisch sagt es mehr: OpenAI behandelt ChatGPT- und Codex-Accounts zunehmend wie Infrastrukturkonten. Das ist die richtige Richtung. Je stärker KI-Werkzeuge in Arbeit, Recherche, Entwicklung und persönliche Planung wandern, desto weniger plausibel ist ein einfacher Passwort-Login als zentrale Verteidigungslinie.
Für viele Nutzer wird die Einstellung zu streng sein. Passkeys, Hardware-Schlüssel und harte Recovery-Regeln verlangen Disziplin. Für Journalisten, Forschende, Entwickler und Agenten-Betreiber mit sensiblen Kontexten ist genau diese Strenge aber der Punkt.
Der Fortschritt liegt deshalb nicht in einem einzelnen Sicherheitsschlüssel oder einer neuen Einstellungsseite. OpenAI macht sichtbar, dass KI-Konten selbst zur Angriffsfläche geworden sind. Wer Agenten baut oder täglich mit Codex arbeitet, sollte diese Konten nicht mehr wie beliebige SaaS-Logins behandeln. Sie liegen näher an Produktivumgebung als an Spielplatz.
Transparenz
Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.
Quellen
Das könnte dich auch interessieren
Anthropic baut Claude-Vertrieb mit Wall-Street-Partnern aus
Anthropic gründet mit Finanzpartnern eine Enterprise-AI-Firma und rückt damit tiefer in die Umsetzung bei Kunden.
Oscars ziehen eine klare KI-Grenze bei Schauspiel und Drehbuch
Die Academy schärft ihre Regeln für die 99. Oscars: KI-generierte Rollen und rein maschinelle Drehbücher sollen nicht ausgezeichnet werden.
SPREAD AI holt 30 Millionen Dollar für industrielle Engineering-Intelligence
SPREAD AI meldet eine Series-B-Runde über 30 Millionen Dollar. Die Finanzierung zeigt, wie stark industrielle KI gerade in Richtung Produktdaten, Engineering und operative Umsetzung rückt.