kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Richterin stellt Pentagon bloss – Anthropic-Urteil steht kurz bevor
Regulierung & Ethik

Richterin stellt Pentagon bloss – Anthropic-Urteil steht kurz bevor

U.S. District Judge Rita F. Lin stellte das Pentagon in einer 90-minütigen Anhörung hart in Frage. Ihre Worte: «It looks like an attempt to cripple Anthropic.» Ein Urteil wird bis Ende der Woche erwartet.

Donnerstag, 26. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration eines Gerichtssaals mit Richterhammer und Gesetzbüchern, kinewsletter.ch Stil
Illustration eines Gerichtssaals mit Richterhammer und Gesetzbüchern, kinewsletter.ch Stil
Das Wichtigste

Das Pentagon-Verfahren gegen Anthropic könnte einen globalen Präzedenzfall setzen – und bestimmen, ob Regierungen KI-Firmen bestrafen dürfen, die auf Sicherheitsstandards bestehen.

Kann eine Regierung ein KI-Unternehmen bestrafen, weil es auf Sicherheitsstandards besteht? Genau diese Frage verhandelte U.S. District Judge Rita F. Lin am 24. März in San Francisco – und ihre Worte liessen wenig Zweifel daran, auf welcher Seite sie steht.

«Ein Versuch, Anthropic zu verkrüppeln»

Die rund 90-minütige Anhörung im Fall Anthropic vs. Pentagon wurde zum Kreuzverhör für das Verteidigungsministerium. Richterin Lin wählte ungewöhnlich deutliche Worte: «I don't know if it's murder, but it looks like an attempt to cripple Anthropic», sagte sie über die Wirkung der Pentagon-Massnahmen. Sie hinterfragte, warum das DOD über einen blossen Nutzungsstopp von Claude hinausgegangen sei: «It looks like defendants went further because they were trying to punish Anthropic.»

Besonders skeptisch reagierte Lin auf die Position des DOJ-Anwalts Eric Hamilton, die Posts von Verteidigungsminister Hegseth auf X seien «nicht rechtlich bindend». Das nannte sie «pretty surprising» – und fragte, ob es sich um eine «false statement» handle.

Noch nie gegen ein US-Unternehmen angewandt

Anthropics Anwalt Michael Mongan argumentierte, die Supply-Chain-Risk-Designation – eine Sicherheitseinstufung, die normalerweise ausländischen Firmen vorbehalten ist – sei «unprecedented»: So etwas sei noch nie gegenüber einem amerikanischen Unternehmen angewandt worden. Mehrere Bundesbehörden wie OPM und die Nuclear Regulatory Commission haben daraufhin die Nutzung von Anthropic-Technologie bereits eingestellt.

Das Pentagon konterte mit dem Vorwurf, Anthropic könnte künftig IT-Systeme «sabotieren» oder einen «Kill Switch» installieren. Mehr als ein Dutzend Amicus Briefs wurden eingereicht – fast alle zugunsten von Anthropic. Darunter: Microsoft (mit einer $5-Milliarden-Investition in Anthropic), die ACLU, pensionierte Militärs sowie über 30 Mitarbeitende von Google, OpenAI und DeepMind.

Claude im Iran-Krieg – und gleichzeitig «Sicherheitsrisiko»?

Besonders pikant: Am selben Tag bestätigte Pentagon-CIO Kirsten Davies vor dem Senat, dass Claude aktiv im Iran-Krieg eingesetzt wird. CENTCOM nutzt die KI für Nachrichtenanalyse, Zielidentifikation und Gefechtssimulationen – ein eklatanter Widerspruch zur «Sicherheitsrisiko»-Einstufung.

Am 26. März berichtete Axios, dass hinter den Kulissen Gespräche über eine Wiederbelebung des Deals laufen. Insider sagen: «Anthropics KI ist für die Kriegsführung deutlich besser als jede Alternative.» Anthropics annualisierter Umsatz übersteigt mittlerweile $19 Milliarden, das Unternehmen wächst laut Fidelity-Portfoliomanager Mark Schmehl 30% Woche für Woche.

Präzedenzfall für die Schweiz und Europa

Lin hat den Fall «under submission» genommen und angekündigt, «in den nächsten Tagen» zu entscheiden – erwartet wird ein Beschluss bis zum 27. oder 28. März. Für die KI-Branche weltweit ist das Urteil richtungsweisend: Es setzt einen globalen Präzedenzfall dafür, ob Regierungen KI-Unternehmen bestrafen können, die auf Sicherheitsstandards bestehen.

Für Schweizer Unternehmen, die KI-Modelle an öffentliche Auftraggeber liefern, hat der Fall direkte Relevanz. Wer heute Claude oder andere Foundation Models in sicherheitskritischen Bereichen einsetzt, will wissen: Kann der Staat mir den Zugang von heute auf morgen kappen – und damit mein Geschäft gefährden?

Fazit

Das Pentagon-Verfahren gegen Anthropic könnte einen globalen Präzedenzfall setzen – und bestimmen, ob Regierungen KI-Firmen bestrafen dürfen, die auf Sicherheitsstandards bestehen.

Quellen

  • CNBC(wird in neuem Tab geöffnet)
  • Axios(wird in neuem Tab geöffnet)
  • The Hill(wird in neuem Tab geöffnet)
  • Military.com(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Illustration einer alten Druckpresse mit Tuschestempel und Telefon im kinewsletter.ch-Stil – Symbol fuer den Schweizer KI-Kodex der Medienbranche
Illustration einer alten Druckpresse mit Tuschestempel und Telefon im handgezeichneten kinewsletter.ch-Stil – Symbol fuer den Schweizer KI-Kodex der Medienbranche (Dark Mode)
KI in der Schweiz
11. Mai 2026

Schweizer Medien geben sich erstmals einen verbindlichen KI-Kodex

Verleger, SRG SSR und Keystone-SDA haben am Swiss Media Forum in Luzern einen gemeinsamen KI-Kodex vorgestellt. Vier Prinzipien, Kennzeichnungspflicht, Ombudsstelle – umgesetzt werden soll alles bis Ende Jahr.

Die Schweizer Medienbranche regelt sich erstmals branchenweit selbst – mit Kennzeichnungspflicht, Ombudsstelle und Audit – und greift damit dem EU AI Act vor.

Weiterlesen
Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, Dark Mode, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

«Moment of Danger»: Anthropic-CEO warnt vor 12-Monats-Fenster, in dem KI Software auseinandernimmt

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.

Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Weiterlesen
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, Dark Mode, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

Google, Microsoft und xAI lassen US-Behörde ihre Modelle prüfen – freiwillig

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.

Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Weiterlesen