kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Anthropic verklagt die US-Regierung – der grösste KI-Ethik-Showdown
Regulierung & EthikKI-Business

Anthropic verklagt die US-Regierung – der grösste KI-Ethik-Showdown

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.

Dienstag, 10. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration zum Thema Anthropic verklagt die US-Regierung
Illustration zum Thema Anthropic verklagt die US-Regierung
Das Wichtigste

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Anthropic hat am 9. März zwei Bundesgerichtsklagen eingereicht – in Kalifornien und am DC Circuit Court. Der Vorwurf: Das Pentagon stufte das Unternehmen als «Supply Chain Risk» ein. Der Grund dahinter? Anthropic weigerte sich, die uneingeschränkte militärische Nutzung von Claude zu erlauben – insbesondere für Massenüberwachung und vollautonome Waffen.

Milliarden stehen auf dem Spiel

Die Einstufung als Sicherheitsrisiko in der Lieferkette droht, Anthropics Jahresumsatz 2026 um mehrere Milliarden Dollar zu reduzieren. Für ein Unternehmen, das gerade einen Run-Rate-Umsatz von fast 20 Milliarden Dollar erreicht hat und 11 Millionen tägliche Nutzer verzeichnet (+180% seit Januar), ist das eine existenzielle Bedrohung.

Konkret geht es um Regierungsaufträge und Kooperationen mit Bundesbehörden, die mit der «Supply Chain Risk»-Einstufung faktisch ausgeschlossen werden. Claude war zwischenzeitlich sogar zur Nr. 1 im US App Store aufgestiegen – der kommerzielle Erfolg steht also keineswegs in Frage.

1'000 Ziele im Iran – ohne Anthropics Segen

Brisant: Das Wall Street Journal enthüllte gleichzeitig, dass Claude bei den jüngsten Iran-Angriffen rund 1'000 Ziele identifizierte – durch die Verarbeitung von Satelliten- und Überwachungsdaten. Das US-Militär nutzte das Modell also bereits intensiv. Anthropic wollte aber klare Grenzen setzen.

Die rote Linie: Anthropic akzeptiert gewisse militärische Anwendungen, zieht aber bei Massenüberwachung und autonomen Waffen eine klare Grenze – und wird dafür bestraft.

Genau diese Haltung führte zur Pentagon-Einstufung – ein Signal, das weit über Anthropic hinausgeht.

Protest in der ganzen Branche

Anthropic steht nicht allein da. OpenAIs Robotik-Chefin Caitlin Kalinowski verliess das Unternehmen aus Protest gegen dessen Pentagon-Deal. Hunderte Mitarbeitende von OpenAI und Google unterzeichneten einen offenen Brief gegen die uneingeschränkte militärische KI-Nutzung.

Trotz – oder gerade wegen – dieser Debatte honorieren die Nutzer Anthropics Haltung: Claude stieg zur Nr. 1 im US App Store auf, die tägliche Nutzerbasis wuchs seit Januar um 180%.

ETH-Kooperation und Schweizer Neutralität

Die Debatte ist auch für die Schweiz direkt relevant:

  • ETH-Forscher arbeiten aktiv mit Anthropic zusammen – etwa bei einer vielbeachteten Deanonymisierungs-Studie
  • Claude schnitt im FHNW/Kassensturz-Test als bester Chatbot der Schweiz ab
  • Die Frage nach militärischer KI-Nutzung berührt direkt die Schweizer Neutralitätsdiskussion

Wenn der wichtigste KI-Partner der ETH plötzlich als Sicherheitsrisiko gilt, hat das Auswirkungen weit über die USA hinaus.

Präzedenzfall für die gesamte Branche

Diese Klagen werden zum Testfall: Kann ein KI-Unternehmen ethische Grenzen ziehen und gleichzeitig ein Milliarden-Business führen? Oder wird der Zugang zu Regierungsaufträgen künftig davon abhängen, wie bedingungslos man kooperiert?

Die Antwort wird nicht nur Anthropics Zukunft bestimmen – sondern auch, welchen Spielraum andere KI-Firmen bei ethischen Entscheidungen haben.

Teilen:

Das könnte dich auch interessieren

Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Regulierung & Ethik
12. März 2026

Anthropic gründet hauseigene Denkfabrik für KI-Risiken

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».

Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Weiterlesen
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Regulierung & Ethik
11. März 2026

Pentagon setzt auf Google Gemini — Anthropic verklagt US-Regierung

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.

Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Weiterlesen
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Regulierung & Ethik
9. März 2026

Ist Claude bewusst? Anthropic weiss es selbst nicht

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.

Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.

Weiterlesen