kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Anthropic gewinnt gegen das Pentagon – Richterin nennt Vorgehen «orwellianisch»
Regulierung & Ethik

Anthropic gewinnt gegen das Pentagon – Richterin nennt Vorgehen «orwellianisch»

Richterin Rita F. Lin hat dem Pentagon eine Preliminary Injunction erteilt: Die Einstufung von Anthropic als Sicherheitsrisiko ist blockiert. In einer 43-seitigen Entscheidung sprach sie von «klassischer First-Amendment-Vergeltung».

Freitag, 27. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Richterhammer zerbricht Ketten – Illustration zum Anthropic-Injunction-Urteil gegen das Pentagon
Richterhammer zerbricht Ketten – Illustration zum Anthropic-Injunction-Urteil gegen das Pentagon
Das Wichtigste

Regierungen dürfen KI-Unternehmen nicht bestrafen, weil diese auf Sicherheitsstandards bestehen – das hat ein US-Bundesgericht erstmals klargestellt.

Zwei Tage nach einer brisanten Anhörung hat Richterin Rita F. Lin ihr Urteil gefällt: Das Pentagon darf Anthropic nicht als Sicherheitsrisiko einstufen. In einer 43-seitigen Entscheidung zerlegte sie die Argumentation der Trump-Regierung – und sprach von «klassischer First-Amendment-Vergeltung».

43 Seiten, die es in sich haben

U.S. District Judge Rita F. Lin vom Northern District of California gewährte Anthropic am Donnerstag eine Preliminary Injunction – eine vorläufige Verfügung, die das Vorgehen des Pentagons auf Eis legt. Konkret blockiert das Urteil zwei Massnahmen: Die Supply-Chain-Risk-Designation durch das Verteidigungsministerium und die Anweisung von Präsident Trump, alle Bundesbehörden sollten Anthropics Technologie nicht mehr nutzen.

Lin fand unmissverständliche Worte. Die Einstufung als Sicherheitsrisiko sei «likely both contrary to law and arbitrary and capricious» – also wahrscheinlich sowohl rechtswidrig als auch willkürlich. Und weiter:

«Nothing in the governing statute supports the Orwellian notion that an American company may be branded a potential adversary and saboteur of the U.S. for expressing disagreement with the government.»

Die Supply-Chain-Risk-Designation ist ein Instrument, das normalerweise gegen ausländische Geheimdienste und Terrororganisationen eingesetzt wird – nicht gegen amerikanische Unternehmen. Dass es gegen Anthropic angewandt wurde, nannte Lin «unprecedented».

Verfassungswidrige Vergeltung für öffentliche Kritik

Der Kern des Urteils: Lin stellte fest, dass das Pentagon Anthropic nicht aus Sicherheitsgründen abgestraft hat, sondern weil das Unternehmen öffentlich Bedenken über den Einsatz seiner KI für autonome Waffen und Massenüberwachung geäussert hatte.

«Punishing Anthropic for bringing public scrutiny to the government's contracting position is classic illegal First Amendment retaliation.»

Das Pentagon hatte Anthropic als Partner gelobt – bis CEO Dario Amodei sich weigerte, die Sicherheitsschranken von Claude zu entfernen. Verteidigungsminister Pete Hegseth reagierte im Februar mit dem beispiellosen Schritt, Anthropic als Supply-Chain-Risiko einzustufen. Trump ordnete daraufhin an, dass alle Bundesbehörden die Nutzung einstellen und Geschäftsbeziehungen zu Unternehmen kappen, die mit Anthropic zusammenarbeiten.

Eine Woche für die Berufung

Lin verzögerte die Umsetzung ihres Urteils um eine Woche, um der Regierung die Möglichkeit zur Berufung zu geben. Der Ball liegt nun bei der Trump-Administration: Sie kann beim Berufungsgericht eine Aussetzung beantragen – oder die Niederlage akzeptieren.

Anthropic begrüsste das Urteil: «We're grateful to the court for moving swiftly, and pleased they agree Anthropic is likely to succeed on the merits. While this case was necessary to protect Anthropic, our customers, and our partners, our focus remains on working productively with the government to ensure all Americans benefit from safe, reliable AI.»

Das Pentagon gab keinen unmittelbaren Kommentar ab und verwies auf die laufenden Verfahren.

Was das Urteil für die KI-Branche bedeutet

Das Urteil ist ein Meilenstein – nicht nur für Anthropic, sondern für die gesamte KI-Industrie. Es etabliert einen klaren Rechtsstandard: Regierungen dürfen KI-Unternehmen nicht bestrafen, weil diese auf Sicherheitsstandards bestehen oder öffentlich Bedenken äussern. Das First-Amendment-Argument ist dabei besonders stark – es schützt nicht nur Anthropic, sondern jedes Tech-Unternehmen, das sich gegen den Missbrauch seiner Technologie wehrt.

Für Schweizer Unternehmen, die KI-Modelle im öffentlichen Sektor einsetzen, ist das ein wichtiges Signal: Auch in den USA können sich Firmen erfolgreich gegen politische Instrumentalisierung wehren. Die Frage, ob die Trump-Regierung in Berufung geht, wird die nächste grosse Nachricht in diesem Fall sein.

Quellen

  • TechCrunch(wird in neuem Tab geöffnet)
  • NPR(wird in neuem Tab geöffnet)
  • CNBC(wird in neuem Tab geöffnet)
  • Fortune(wird in neuem Tab geöffnet)
  • CNN(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Illustration eines Gerichtssaals mit Richterhammer und Gesetzbüchern, kinewsletter.ch Stil
Illustration eines Gerichtssaals mit Richterhammer und Gesetzbüchern, kinewsletter.ch Stil
Regulierung & Ethik

Richterin stellt Pentagon bloss – Anthropic-Urteil steht kurz bevor

U.S. District Judge Rita F. Lin stellte das Pentagon in einer 90-minütigen Anhörung hart in Frage. Ihre Worte: «It looks like an attempt to cripple Anthropic.» Ein Urteil wird bis Ende der Woche erwartet.

Weiterlesen