kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Anthropic verklagt die US-Regierung – der grösste KI-Ethik-Showdown
Regulierung & EthikKI-Business

Anthropic verklagt die US-Regierung – der grösste KI-Ethik-Showdown

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.

Dienstag, 10. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration zum Thema Anthropic verklagt die US-Regierung
Illustration zum Thema Anthropic verklagt die US-Regierung
Das Wichtigste

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Anthropic hat am 9. März zwei Bundesgerichtsklagen eingereicht – in Kalifornien und am DC Circuit Court. Der Vorwurf: Das Pentagon stufte das Unternehmen als «Supply Chain Risk» ein. Der Grund dahinter? Anthropic weigerte sich, die uneingeschränkte militärische Nutzung von Claude zu erlauben – insbesondere für Massenüberwachung und vollautonome Waffen.

Milliarden stehen auf dem Spiel

Die Einstufung als Sicherheitsrisiko in der Lieferkette droht, Anthropics Jahresumsatz 2026 um mehrere Milliarden Dollar zu reduzieren. Für ein Unternehmen, das gerade einen Run-Rate-Umsatz von fast 20 Milliarden Dollar erreicht hat und 11 Millionen tägliche Nutzer verzeichnet (+180% seit Januar), ist das eine existenzielle Bedrohung.

Konkret geht es um Regierungsaufträge und Kooperationen mit Bundesbehörden, die mit der «Supply Chain Risk»-Einstufung faktisch ausgeschlossen werden. Claude war zwischenzeitlich sogar zur Nr. 1 im US App Store aufgestiegen – der kommerzielle Erfolg steht also keineswegs in Frage.

1'000 Ziele im Iran – ohne Anthropics Segen

Brisant: Das Wall Street Journal enthüllte gleichzeitig, dass Claude bei den jüngsten Iran-Angriffen rund 1'000 Ziele identifizierte – durch die Verarbeitung von Satelliten- und Überwachungsdaten. Das US-Militär nutzte das Modell also bereits intensiv. Anthropic wollte aber klare Grenzen setzen.

Die rote Linie: Anthropic akzeptiert gewisse militärische Anwendungen, zieht aber bei Massenüberwachung und autonomen Waffen eine klare Grenze – und wird dafür bestraft.

Genau diese Haltung führte zur Pentagon-Einstufung – ein Signal, das weit über Anthropic hinausgeht.

Protest in der ganzen Branche

Anthropic steht nicht allein da. OpenAIs Robotik-Chefin Caitlin Kalinowski verliess das Unternehmen aus Protest gegen dessen Pentagon-Deal. Hunderte Mitarbeitende von OpenAI und Google unterzeichneten einen offenen Brief gegen die uneingeschränkte militärische KI-Nutzung.

Trotz – oder gerade wegen – dieser Debatte honorieren die Nutzer Anthropics Haltung: Claude stieg zur Nr. 1 im US App Store auf, die tägliche Nutzerbasis wuchs seit Januar um 180%.

ETH-Kooperation und Schweizer Neutralität

Die Debatte ist auch für die Schweiz direkt relevant:

  • ETH-Forscher arbeiten aktiv mit Anthropic zusammen – etwa bei einer vielbeachteten Deanonymisierungs-Studie
  • Claude schnitt im FHNW/Kassensturz-Test als bester Chatbot der Schweiz ab
  • Die Frage nach militärischer KI-Nutzung berührt direkt die Schweizer Neutralitätsdiskussion

Wenn der wichtigste KI-Partner der ETH plötzlich als Sicherheitsrisiko gilt, hat das Auswirkungen weit über die USA hinaus.

Präzedenzfall für die gesamte Branche

Diese Klagen werden zum Testfall: Kann ein KI-Unternehmen ethische Grenzen ziehen und gleichzeitig ein Milliarden-Business führen? Oder wird der Zugang zu Regierungsaufträgen künftig davon abhängen, wie bedingungslos man kooperiert?

Die Antwort wird nicht nur Anthropics Zukunft bestimmen – sondern auch, welchen Spielraum andere KI-Firmen bei ethischen Entscheidungen haben.

Fazit

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Quellen

  • CNBC(wird in neuem Tab geöffnet)
  • THE DECODER(wird in neuem Tab geöffnet)
  • Bloomberg(wird in neuem Tab geöffnet)
  • Wall Street Journal(wird in neuem Tab geöffnet)
  • PYMNTS(wird in neuem Tab geöffnet)
  • Heise(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

«Moment of Danger»: Anthropic-CEO warnt vor 12-Monats-Fenster, in dem KI Software auseinandernimmt

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.

Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Weiterlesen
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

Google, Microsoft und xAI lassen US-Behörde ihre Modelle prüfen – freiwillig

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.

Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Weiterlesen
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
KI-Business
5. Mai 2026

Anthropic gegen OpenAI: Beide Labs zünden am selben Tag ein PE-Vehikel für Enterprise-KI

Anthropic und OpenAI haben am selben Tag konkurrierende Enterprise-Vehikel mit Wall Street verkündet. Anthropic baut mit Blackstone, Goldman und Hellman & Friedman eine 1,5-Mrd.-Firma; OpenAI startet mit TPG, Bain und SoftBank «The Deployment Company» mit 10 Mrd. Bewertung – und garantiert Investoren 17,5% Rendite pro Jahr.

Beide Labs schalten die KI-Beratungsindustrie aus und verkaufen ein Stück ihrer Enterprise-Marge an Private-Equity-Häuser, um direkten Zugang zu deren Portfolio-Firmen zu bekommen.

Weiterlesen