Richterin Rita F. Lin hat dem Pentagon eine Preliminary Injunction erteilt: Die Einstufung von Anthropic als Sicherheitsrisiko ist blockiert. In einer 43-seitigen Entscheidung sprach sie von «klassischer First-Amendment-Vergeltung».

Regierungen dürfen KI-Unternehmen nicht bestrafen, weil diese auf Sicherheitsstandards bestehen – das hat ein US-Bundesgericht erstmals klargestellt.
Zwei Tage nach einer brisanten Anhörung hat Richterin Rita F. Lin ihr Urteil gefällt: Das Pentagon darf Anthropic nicht als Sicherheitsrisiko einstufen. In einer 43-seitigen Entscheidung zerlegte sie die Argumentation der Trump-Regierung – und sprach von «klassischer First-Amendment-Vergeltung».
U.S. District Judge Rita F. Lin vom Northern District of California gewährte Anthropic am Donnerstag eine Preliminary Injunction – eine vorläufige Verfügung, die das Vorgehen des Pentagons auf Eis legt. Konkret blockiert das Urteil zwei Massnahmen: Die Supply-Chain-Risk-Designation durch das Verteidigungsministerium und die Anweisung von Präsident Trump, alle Bundesbehörden sollten Anthropics Technologie nicht mehr nutzen.
Lin fand unmissverständliche Worte. Die Einstufung als Sicherheitsrisiko sei «likely both contrary to law and arbitrary and capricious» – also wahrscheinlich sowohl rechtswidrig als auch willkürlich. Und weiter:
«Nothing in the governing statute supports the Orwellian notion that an American company may be branded a potential adversary and saboteur of the U.S. for expressing disagreement with the government.»
Die Supply-Chain-Risk-Designation ist ein Instrument, das normalerweise gegen ausländische Geheimdienste und Terrororganisationen eingesetzt wird – nicht gegen amerikanische Unternehmen. Dass es gegen Anthropic angewandt wurde, nannte Lin «unprecedented».
Der Kern des Urteils: Lin stellte fest, dass das Pentagon Anthropic nicht aus Sicherheitsgründen abgestraft hat, sondern weil das Unternehmen öffentlich Bedenken über den Einsatz seiner KI für autonome Waffen und Massenüberwachung geäussert hatte.
«Punishing Anthropic for bringing public scrutiny to the government's contracting position is classic illegal First Amendment retaliation.»
Das Pentagon hatte Anthropic als Partner gelobt – bis CEO Dario Amodei sich weigerte, die Sicherheitsschranken von Claude zu entfernen. Verteidigungsminister Pete Hegseth reagierte im Februar mit dem beispiellosen Schritt, Anthropic als Supply-Chain-Risiko einzustufen. Trump ordnete daraufhin an, dass alle Bundesbehörden die Nutzung einstellen und Geschäftsbeziehungen zu Unternehmen kappen, die mit Anthropic zusammenarbeiten.
Lin verzögerte die Umsetzung ihres Urteils um eine Woche, um der Regierung die Möglichkeit zur Berufung zu geben. Der Ball liegt nun bei der Trump-Administration: Sie kann beim Berufungsgericht eine Aussetzung beantragen – oder die Niederlage akzeptieren.
Anthropic begrüsste das Urteil: «We're grateful to the court for moving swiftly, and pleased they agree Anthropic is likely to succeed on the merits. While this case was necessary to protect Anthropic, our customers, and our partners, our focus remains on working productively with the government to ensure all Americans benefit from safe, reliable AI.»
Das Pentagon gab keinen unmittelbaren Kommentar ab und verwies auf die laufenden Verfahren.
Das Urteil ist ein Meilenstein – nicht nur für Anthropic, sondern für die gesamte KI-Industrie. Es etabliert einen klaren Rechtsstandard: Regierungen dürfen KI-Unternehmen nicht bestrafen, weil diese auf Sicherheitsstandards bestehen oder öffentlich Bedenken äussern. Das First-Amendment-Argument ist dabei besonders stark – es schützt nicht nur Anthropic, sondern jedes Tech-Unternehmen, das sich gegen den Missbrauch seiner Technologie wehrt.
Für Schweizer Unternehmen, die KI-Modelle im öffentlichen Sektor einsetzen, ist das ein wichtiges Signal: Auch in den USA können sich Firmen erfolgreich gegen politische Instrumentalisierung wehren. Die Frage, ob die Trump-Regierung in Berufung geht, wird die nächste grosse Nachricht in diesem Fall sein.

U.S. District Judge Rita F. Lin stellte das Pentagon in einer 90-minütigen Anhörung hart in Frage. Ihre Worte: «It looks like an attempt to cripple Anthropic.» Ein Urteil wird bis Ende der Woche erwartet.