Sicherheitsforscher haben rund 3'000 unveröffentlichte Dokumente von Anthropic in einem öffentlich zugänglichen Speicher entdeckt – darunter Entwürfe für ein neues KI-Modell namens «Claude Mythos». Anthropic bestätigt: Es handelt sich um «einen Quantensprung» in den Fähigkeiten.

Anthropics neues Modell Claude Mythos ist eine neue Stufe über Opus – und warnt laut internen Dokumenten selbst vor «beispiellosen Cybersecurity-Risiken».
Sicherheitsforscher haben rund 3'000 unveröffentlichte Dokumente von Anthropic in einem öffentlich zugänglichen Speicher entdeckt – darunter Entwürfe für ein neues KI-Modell namens «Claude Mythos». Anthropic bestätigt: Es handelt sich um «einen Quantensprung» in den Fähigkeiten. Die Cybersecurity-Branche reagierte mit Kurseinbrüchen.
Am 26. März fanden die Sicherheitsforscher Roy Paz (LayerX Security) und Alexandre Pauwels (University of Cambridge) einen Datenschatz: Knapp 3'000 unveröffentlichte Assets aus Anthropics Content-Management-System lagen offen im Netz – öffentlich durchsuchbar, ohne jeglichen Passwortschutz.
Darunter: Entwürfe für Blogposts, interne Dokumente und die Beschreibung eines neuen Modells namens Claude Mythos mit dem internen Codenamen Capybara. Anthropic reagierte, nachdem Fortune den Konzern informiert hatte, und sperrte den Zugang. Ursache laut Anthropic: «Human Error» bei der CMS-Konfiguration – hochgeladene Dateien waren standardmässig öffentlich sichtbar.
Claude Mythos ist nicht einfach ein Update von Opus 4.6. Laut den geleakten Dokumenten ist Capybara eine neue Modellstufe – grösser und leistungsfähiger als Opus, aber auch deutlich teurer im Betrieb. Anthropic bestätigte gegenüber Fortune: Das Modell sei «the most capable we've built to date» und stelle «a step change» dar.
Die Leistungsdaten laut den Entwürfen: «Dramatically higher scores» gegenüber Claude Opus 4.6 in Software-Coding, akademischem Reasoning und Cybersecurity-Tests. Konkrete Benchmark-Zahlen wurden nicht veröffentlicht – aber die interne Einschätzung ist eindeutig.
Der brisanteste Teil des Leaks betrifft die Cybersecurity-Fähigkeiten. In den internen Dokumenten warnt Anthropic selbst:
«Currently far ahead of any other AI model in cyber capabilities.»
Und weiter: Das Modell «presages an upcoming wave of models that can exploit vulnerabilities in ways that far outpace the efforts of defenders». Übersetzt: Mythos kann Sicherheitslücken schneller finden und ausnutzen, als Verteidiger sie schliessen können.
Anthropic plant deshalb, das Modell zuerst gezielt an Cybersecurity-Verteidiger auszurollen – nicht an die breite Öffentlichkeit. Ein öffentliches Release-Datum gibt es noch nicht. Auf Polymarket laufen bereits Wetten zum Erscheinungstermin.
Die Börse reagierte sofort. Am 27. März verlor der iShares Cybersecurity ETF 4,5 Prozent. Einzelwerte traf es härter:
Die Sorge der Investoren: Wenn ein KI-Modell Schwachstellen schneller findet als bestehende Security-Tools, könnte Anthropic direkt in den Cybersecurity-Markt einsteigen – und die etablierten Anbieter unter Druck setzen.
Die Ironie ist kaum zu übersehen: Ein Unternehmen, das vor «beispiellosen Cybersecurity-Risiken» seines eigenen Modells warnt, verliert seine grössten Geheimnisse durch einen simplen CMS-Konfigurationsfehler. Futurism titelte treffend: «In the most ironic way possible.»
Für die KI-Branche ist der Vorfall ein doppeltes Signal. Erstens: Die nächste Generation von Modellen wird nicht nur schlauer bei Texten und Code – sie wird gefährlich gut darin, digitale Schwachstellen zu finden. Zweitens: Selbst die fortschrittlichsten KI-Unternehmen kämpfen mit ganz banaler IT-Sicherheit. Das eine schliesst das andere offenbar nicht aus.

Das mysteriöse KI-Modell «Hunter Alpha», das seit dem 11. März die OpenRouter-Rangliste dominierte, gehört nicht zu DeepSeek – sondern zu Xiaomi. Mit rund 1 Billion Parametern und einem 1-Million-Token-Kontextfenster positioniert der Smartphone-Riese sein MiMo-V2-Pro als «Gehirn für KI-Agenten».
Xiaomis anonymer «Stealth Release» auf OpenRouter zeigt: Chinas KI-Ökosystem reicht weit über DeepSeek hinaus – und der Smartphone-Riese meint es ernst mit KI-Agenten.

NVIDIA stellt zwei neue KI-Modell-Familien vor: Nemotron 3 Super für agentische Systeme mit fünfmal höherem Durchsatz und Alpamayo für autonomes Fahren. Beide sind Open Source.
NVIDIA setzt mit zwei Open-Source-Modell-Familien auf ein Ökosystem-Spiel — Nemotron für Agenten, Alpamayo für selbstfahrende Autos.

OpenAI hat GPT-5.4 vorgestellt – erstmals vereint ein Modell Coding, Reasoning und native Computerbedienung. Auf dem OSWorld-Benchmark übertrifft es mit 75% sogar den menschlichen Referenzwert. Was das für ChatGPT-Nutzer und Entwickler bedeutet.
GPT-5.4 ist das erste OpenAI-Modell, das Computer besser bedient als Menschen – und verschiebt den KI-Wettbewerb von «klugstes Modell» hin zu «beste KI-Arbeitskraft».