U.S. District Judge Rita F. Lin stellte das Pentagon in einer 90-minütigen Anhörung hart in Frage. Ihre Worte: «It looks like an attempt to cripple Anthropic.» Ein Urteil wird bis Ende der Woche erwartet.

Das Pentagon-Verfahren gegen Anthropic könnte einen globalen Präzedenzfall setzen – und bestimmen, ob Regierungen KI-Firmen bestrafen dürfen, die auf Sicherheitsstandards bestehen.
Kann eine Regierung ein KI-Unternehmen bestrafen, weil es auf Sicherheitsstandards besteht? Genau diese Frage verhandelte U.S. District Judge Rita F. Lin am 24. März in San Francisco – und ihre Worte liessen wenig Zweifel daran, auf welcher Seite sie steht.
Die rund 90-minütige Anhörung im Fall Anthropic vs. Pentagon wurde zum Kreuzverhör für das Verteidigungsministerium. Richterin Lin wählte ungewöhnlich deutliche Worte: «I don't know if it's murder, but it looks like an attempt to cripple Anthropic», sagte sie über die Wirkung der Pentagon-Massnahmen. Sie hinterfragte, warum das DOD über einen blossen Nutzungsstopp von Claude hinausgegangen sei: «It looks like defendants went further because they were trying to punish Anthropic.»
Besonders skeptisch reagierte Lin auf die Position des DOJ-Anwalts Eric Hamilton, die Posts von Verteidigungsminister Hegseth auf X seien «nicht rechtlich bindend». Das nannte sie «pretty surprising» – und fragte, ob es sich um eine «false statement» handle.
Anthropics Anwalt Michael Mongan argumentierte, die Supply-Chain-Risk-Designation – eine Sicherheitseinstufung, die normalerweise ausländischen Firmen vorbehalten ist – sei «unprecedented»: So etwas sei noch nie gegenüber einem amerikanischen Unternehmen angewandt worden. Mehrere Bundesbehörden wie OPM und die Nuclear Regulatory Commission haben daraufhin die Nutzung von Anthropic-Technologie bereits eingestellt.
Das Pentagon konterte mit dem Vorwurf, Anthropic könnte künftig IT-Systeme «sabotieren» oder einen «Kill Switch» installieren. Mehr als ein Dutzend Amicus Briefs wurden eingereicht – fast alle zugunsten von Anthropic. Darunter: Microsoft (mit einer $5-Milliarden-Investition in Anthropic), die ACLU, pensionierte Militärs sowie über 30 Mitarbeitende von Google, OpenAI und DeepMind.
Besonders pikant: Am selben Tag bestätigte Pentagon-CIO Kirsten Davies vor dem Senat, dass Claude aktiv im Iran-Krieg eingesetzt wird. CENTCOM nutzt die KI für Nachrichtenanalyse, Zielidentifikation und Gefechtssimulationen – ein eklatanter Widerspruch zur «Sicherheitsrisiko»-Einstufung.
Am 26. März berichtete Axios, dass hinter den Kulissen Gespräche über eine Wiederbelebung des Deals laufen. Insider sagen: «Anthropics KI ist für die Kriegsführung deutlich besser als jede Alternative.» Anthropics annualisierter Umsatz übersteigt mittlerweile $19 Milliarden, das Unternehmen wächst laut Fidelity-Portfoliomanager Mark Schmehl 30% Woche für Woche.
Lin hat den Fall «under submission» genommen und angekündigt, «in den nächsten Tagen» zu entscheiden – erwartet wird ein Beschluss bis zum 27. oder 28. März. Für die KI-Branche weltweit ist das Urteil richtungsweisend: Es setzt einen globalen Präzedenzfall dafür, ob Regierungen KI-Unternehmen bestrafen können, die auf Sicherheitsstandards bestehen.
Für Schweizer Unternehmen, die KI-Modelle an öffentliche Auftraggeber liefern, hat der Fall direkte Relevanz. Wer heute Claude oder andere Foundation Models in sicherheitskritischen Bereichen einsetzt, will wissen: Kann der Staat mir den Zugang von heute auf morgen kappen – und damit mein Geschäft gefährden?
Das Pentagon-Verfahren gegen Anthropic könnte einen globalen Präzedenzfall setzen – und bestimmen, ob Regierungen KI-Firmen bestrafen dürfen, die auf Sicherheitsstandards bestehen.

Verleger, SRG SSR und Keystone-SDA haben am Swiss Media Forum in Luzern einen gemeinsamen KI-Kodex vorgestellt. Vier Prinzipien, Kennzeichnungspflicht, Ombudsstelle – umgesetzt werden soll alles bis Ende Jahr.
Die Schweizer Medienbranche regelt sich erstmals branchenweit selbst – mit Kennzeichnungspflicht, Ombudsstelle und Audit – und greift damit dem EU AI Act vor.

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.
Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.
Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.