Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.
Anthropic hat am 9. März zwei Bundesgerichtsklagen eingereicht – in Kalifornien und am DC Circuit Court. Der Vorwurf: Das Pentagon stufte das Unternehmen als «Supply Chain Risk» ein. Der Grund dahinter? Anthropic weigerte sich, die uneingeschränkte militärische Nutzung von Claude zu erlauben – insbesondere für Massenüberwachung und vollautonome Waffen.
Die Einstufung als Sicherheitsrisiko in der Lieferkette droht, Anthropics Jahresumsatz 2026 um mehrere Milliarden Dollar zu reduzieren. Für ein Unternehmen, das gerade einen Run-Rate-Umsatz von fast 20 Milliarden Dollar erreicht hat und 11 Millionen tägliche Nutzer verzeichnet (+180% seit Januar), ist das eine existenzielle Bedrohung.
Konkret geht es um Regierungsaufträge und Kooperationen mit Bundesbehörden, die mit der «Supply Chain Risk»-Einstufung faktisch ausgeschlossen werden. Claude war zwischenzeitlich sogar zur Nr. 1 im US App Store aufgestiegen – der kommerzielle Erfolg steht also keineswegs in Frage.
Brisant: Das Wall Street Journal enthüllte gleichzeitig, dass Claude bei den jüngsten Iran-Angriffen rund 1'000 Ziele identifizierte – durch die Verarbeitung von Satelliten- und Überwachungsdaten. Das US-Militär nutzte das Modell also bereits intensiv. Anthropic wollte aber klare Grenzen setzen.
Die rote Linie: Anthropic akzeptiert gewisse militärische Anwendungen, zieht aber bei Massenüberwachung und autonomen Waffen eine klare Grenze – und wird dafür bestraft.
Genau diese Haltung führte zur Pentagon-Einstufung – ein Signal, das weit über Anthropic hinausgeht.
Anthropic steht nicht allein da. OpenAIs Robotik-Chefin Caitlin Kalinowski verliess das Unternehmen aus Protest gegen dessen Pentagon-Deal. Hunderte Mitarbeitende von OpenAI und Google unterzeichneten einen offenen Brief gegen die uneingeschränkte militärische KI-Nutzung.
Trotz – oder gerade wegen – dieser Debatte honorieren die Nutzer Anthropics Haltung: Claude stieg zur Nr. 1 im US App Store auf, die tägliche Nutzerbasis wuchs seit Januar um 180%.
Die Debatte ist auch für die Schweiz direkt relevant:
Wenn der wichtigste KI-Partner der ETH plötzlich als Sicherheitsrisiko gilt, hat das Auswirkungen weit über die USA hinaus.
Diese Klagen werden zum Testfall: Kann ein KI-Unternehmen ethische Grenzen ziehen und gleichzeitig ein Milliarden-Business führen? Oder wird der Zugang zu Regierungsaufträgen künftig davon abhängen, wie bedingungslos man kooperiert?
Die Antwort wird nicht nur Anthropics Zukunft bestimmen – sondern auch, welchen Spielraum andere KI-Firmen bei ethischen Entscheidungen haben.
Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.
Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.
Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Anthropic und OpenAI haben am selben Tag konkurrierende Enterprise-Vehikel mit Wall Street verkündet. Anthropic baut mit Blackstone, Goldman und Hellman & Friedman eine 1,5-Mrd.-Firma; OpenAI startet mit TPG, Bain und SoftBank «The Deployment Company» mit 10 Mrd. Bewertung – und garantiert Investoren 17,5% Rendite pro Jahr.
Beide Labs schalten die KI-Beratungsindustrie aus und verkaufen ein Stück ihrer Enterprise-Marge an Private-Equity-Häuser, um direkten Zugang zu deren Portfolio-Firmen zu bekommen.