Zum Inhalt springen
news · 4 min Lesezeit

Anthropic hält Claude Mythos Preview zurück – zu gefährlich für die Öffentlichkeit

Das neue KI-Modell Claude Mythos entdeckt tausende Software-Schwachstellen – zu riskant für einen breiten Release.

Claude Mythos Security Project Glasswing Anthropic Vulnerabilities

Anthropic hat sein neues Spitzenmodell „Claude Mythos Preview“ fertiggestellt, hält es aber vorerst unter Verschluss. Der Grund: Die KI soll tausende Software-Schwachstellen entdecken können – darunter alte Lücken in Betriebssystemen und Browsern – und gilt damit als zu riskant für eine breite Veröffentlichung. Stattdessen erhalten über das neu gegründete „Project Glasswing“ ausgewählte Partner wie die Linux Foundation, Cisco und CrowdStrike kontrollierten Zugang, um kritische Infrastrukturen abzusichern.

Mit dem Start der Initiative am 7. April 2026 bündeln Anthropic und zahlreiche Partner ihre Kräfte. Das Ziel ist es, besonders kritische Software besser vor Cyberangriffen zu schützen. Die Entscheidung, das Modell zurückzuhalten, zeigt die wachsende Sensibilität für Dual-Use-Risiken: Ein Modell, das Verteidigern beim Finden alter Schwachstellen hilft, kann Angreifern denselben Vorsprung verschaffen.

Das doppelschneidige Schwert der Code-Analyse

Laut Anthropic handelt es sich bei Claude Mythos um ein vielseitiges Frontier-Modell, dessen größte Stärke in der IT-Sicherheit liegt. In internen Tests soll die KI bei der Suche nach Schwachstellen sehr leistungsfähig gewesen sein. Genau das macht den Fall so heikel.

Das Problem liegt in der dualen Verwendbarkeit. Ein Angreifer könnte ein solches Modell nutzen, um große Code-Basen automatisiert zu scannen und potenziell passende Exploit-Pfade abzuleiten. Bei veralteten oder schlecht gewarteten Systemen ließen sich so kritische Lücken schneller finden. Claude Mythos löst damit nicht nur ein Verteidigungsproblem, sondern könnte auch eine neue Klasse automatisierter Angriffe ermöglichen.

Project Glasswing: Defensive durch kontrollierten Zugang

Um dieser Gefahr zu begegnen, wählt Anthropic mit Project Glasswing einen restriktiven Ansatz. Die Allianz bringt große Technologie- und Infrastrukturakteure zusammen, darunter AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Microsoft und NVIDIA. Diese Partner erhalten kontrollierten Zugang zu Claude Mythos Preview, um ihre Systeme, Cloud-Runtimes und Betriebssysteme präventiv zu prüfen.

Für die beteiligten Organisationen kann das ein erheblicher Vorteil in der Abwehr sein. Durch die Kombination aus maschineller Analysegeschwindigkeit und der Erfahrung bestehender Security-Teams lassen sich Schwachstellen früher finden und priorisieren. Ein Sprecher der Linux Foundation betont, dass Risiken so frühzeitig erkannt und abgebaut werden können, ohne ein potenziell gefährliches Werkzeug öffentlich verfügbar zu machen.

Eine neue Dimension der Schwachstellen-Erkennung

Die ersten Berichte aus Project Glasswing deuten darauf hin, dass KI-Modelle bei der Code-Analyse ein neues Niveau erreichen. Die KI findet demnach Lücken, die lange übersehen wurden, weil manuelle Prüfungen in diesem Umfang kaum realistisch sind. Laut Anthropic beschränkt sich das Modell nicht nur auf statische Analysen, sondern kann in Testumgebungen gezielte Angriffe simulieren, um die Ausnutzbarkeit von Bugs zu überprüfen.

Der entscheidende Faktor ist Skalierbarkeit. Während menschliche Security-Analysten nur eine begrenzte Zahl von Angriffsszenarien pro Tag prüfen können, können KI-Systeme viele Varianten parallel oder in schneller Folge durchspielen. Dadurch verschiebt sich das Machtgefüge in der Cybersicherheit zugunsten der Akteure, die Zugriff auf solche Modelle haben. Zwar können entdeckte Schwachstellen schneller behoben werden, doch die zentrale Frage bleibt, wer diese Werkzeuge kontrolliert.

Konsequenzen für Entwicklung und Sicherheit

Für Entwickler und Systemarchitekten hat diese Entwicklung weitreichende Folgen. Code-Basen – ob proprietär oder Open Source – werden künftig stärker durch KI-gestützte Prüfverfahren analysiert werden. Automatisierte Schwachstellensuche wird damit zu einem wichtigen Bestandteil moderner DevOps- und Security-Prozesse.

Gleichzeitig steigt der Druck auf Unternehmen. Wenn KI-Systeme Lücken präziser und schneller aufdecken, lassen sich Sicherheitsmängel schwerer ignorieren. Organisationen müssen stärker von reaktiver Verteidigung zu kontinuierlichen, aktiven Scans übergehen, um Angreifern nicht dauerhaft hinterherzulaufen.

Die langfristige Dynamik hängt davon ab, wie der Zugang zu solchen Sicherheitsmodellen geregelt wird. Wer an Allianzen wie Project Glasswing teilnimmt, erhält potenziell einen technologischen Vorsprung. Wer ausgeschlossen bleibt, könnte bei der Absicherung komplexer Systeme ins Hintertreffen geraten.

Worauf es ankommt

  • Starke Analysefähigkeit: Claude Mythos Preview soll Software-Schwachstellen in großem Umfang erkennen können.
  • Restriktiver Zugang: Aufgrund des Missbrauchspotenzials verzichtet Anthropic vorerst auf ein öffentliches Release.
  • Präventive Abwehr: Über Project Glasswing nutzen ausgewählte Partner das Modell zur Absicherung eigener Systeme.
  • DevOps-Wandel: KI-gestützte Schwachstellenscans werden wichtiger für moderne Entwicklungszyklen.
  • Neue Machtverteilung: Exklusiver Zugang zu solchen Modellen kann das Kräfteverhältnis in der globalen Cybersicherheit verschieben.

Transparenz

Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.