kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Pentagon setzt auf Google Gemini — Anthropic verklagt US-Regierung
Regulierung & EthikKI-Business

Pentagon setzt auf Google Gemini — Anthropic verklagt US-Regierung

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.

Mittwoch, 11. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Das Wichtigste

Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Anthropic weigert sich, seine KI-Sicherheitsprinzipien aufzugeben – und wird dafür vom US-Verteidigungsministerium als Sicherheitsrisiko eingestuft. Google springt in die Lücke. Der grösste KI-Machtkampf seit Jahren eskaliert vor Gericht.

3 Millionen DoD-Mitarbeitende erhalten Gemini-Agenten

Google rollt ab sofort acht vorgefertigte KI-Agenten auf der Pentagon-Plattform GenAI.mil aus – verfügbar für die gesamte 3-Millionen-Belegschaft des US-Verteidigungsministeriums (Department of Defense, DoD). Dazu kommt ein No-Code-Tool namens Agent Designer, mit dem Mitarbeitende eigene KI-Assistenten für Routineaufgaben bauen können – ohne eine Zeile Code.

Die Zahlen sind bereits beeindruckend: Seit Dezember 2025 haben 1,2 Millionen DoD-Angestellte die Plattform genutzt und über 40 Millionen Prompts abgesetzt. Die Agenten automatisieren Aufgaben wie Besprechungszusammenfassungen, Budgeterstellung und Strategieabgleiche mit der nationalen Verteidigungsstrategie. Vorerst läuft alles auf nicht-klassifizierten Netzwerken – Gespräche über eine Erweiterung auf klassifizierte Systeme laufen laut dem DoD bereits.

Anthropics rote Linien – und der Preis dafür

Der Hintergrund für Googles Expansion ist eine beispiellose Eskalation. Am 3. März stufte das Pentagon Anthropic als «Supply-Chain-Risiko» ein – eine Bezeichnung, die bisher ausländischen Akteuren wie Huawei vorbehalten war und nun erstmals gegen ein US-Unternehmen eingesetzt wird.

Der Auslöser: Anthropic weigerte sich, zwei Bedingungen aus seinen Nutzungsrichtlinien zu streichen. Claude darf nicht für Massenüberwachung von US-Bürgern und nicht für vollautonome Waffensysteme ohne menschliche Kontrolle eingesetzt werden. Für die Trump-Administration, die Anthropic zuvor öffentlich als «Radical Left AI Company» kritisiert hatte, war das inakzeptabel.

Das Pentagon nutzt ein Gesetz, das für ausländische Bedrohungen gedacht war, als Vergeltung gegen ein US-Unternehmen, das unbequeme Positionen vertritt.

So argumentieren die 22 pensionierten hochrangigen US-Militärs – darunter Ex-CIA-Direktor Michael Hayden und Ex-Küstenwache-Admiral Thad Allen – in ihrem Amicus-Brief vor Gericht.

Klage, Microsoft und eine breite Koalition

Am 10. März klagte Anthropic in zwei Verfahren gegen die US-Regierung: vor dem Bundesgericht in Nordkalifornien und dem Berufungsgericht in Washington, D.C. Die Klagen argumentieren, die Einstufung verletze den Ersten Verfassungszusatz und überschreite den Anwendungsbereich des Supply-Chain-Gesetzes.

Microsoft reichte am selben Tag einen Amicus-Brief ein – mit der Forderung, das Gericht solle die Pentagon-Massnahmen per einstweiliger Verfügung stoppen. Kein Zufall: Microsoft hat bis zu 5 Milliarden Dollar in Anthropic investiert und integriert Claude-Modelle in Produkte, die direkt ans US-Militär geliefert werden.

Zusätzlich unterzeichneten 37 Forscher von Google und OpenAI – darunter Googles Chefwissenschaftler Jeff Dean – persönlich einen Amicus-Brief für Anthropic. Die Verhandlung ist für den 24. März angesetzt.

Google als lachender Dritter

Axios analysierte am 11. März pointiert: Während Anthropic und OpenAI sich öffentlich streiten, baut Google seine Position beim Pentagon leise aus. Mit über 400 Milliarden Dollar Jahresumsatz hat Alphabet einen Puffer, den kein anderes KI-Unternehmen hat. Google hatte 2018 nach internen Protesten gegen Project Maven noch Militärverträge zurückgefahren – diese Zurückhaltung ist Geschichte. Anfang Februar passte Google seine «AI Principles» bezüglich militärischer Nutzung stillschweigend an.

Pikant: OpenAI hatte kurz zuvor selbst einen Pentagon-Deal abgeschlossen, nachdem das DoD rote Linien akzeptierte, die denen von Anthropic ähneln. Warum Anthropic bestraft wird und OpenAI nicht, bleibt eine offene Frage – und ein zentrales Argument in der Klage.

Schweizer KI-Governance auf dem Prüfstand

Die Eskalation hat direkte Relevanz für die globale KI-Governance. Die Schweiz bereitet den Geneva AI Action Summit 2027 vor, bei dem militärische KI-Governance als Kernthema vorgesehen ist. SPD-Digitalexperte Matthias Mieves forderte öffentlich, Anthropic nach Europa zu holen – die Debatte, ob europäische Regulierung einen sicheren Hafen für ethisch orientierte KI-Unternehmen bieten kann, gewinnt an Fahrt.

Für dich bedeutet das: Dieser Konflikt wird die Spielregeln für KI in der Verteidigung neu definieren. Wer Claude beruflich nutzt, sollte den 24. März im Kalender markieren – an diesem Tag wird das Gericht entscheiden, ob ein KI-Unternehmen für seine Sicherheitsprinzipien bestraft werden darf.

Teilen:

Das könnte dich auch interessieren

Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Regulierung & Ethik
12. März 2026

Anthropic gründet hauseigene Denkfabrik für KI-Risiken

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».

Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Weiterlesen
Illustration zum Thema Anthropic verklagt die US-Regierung
Illustration zum Thema Anthropic verklagt die US-Regierung
Regulierung & Ethik
10. März 2026

Anthropic verklagt die US-Regierung – der grösste KI-Ethik-Showdown

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Weiterlesen
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Regulierung & Ethik
9. März 2026

Ist Claude bewusst? Anthropic weiss es selbst nicht

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.

Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.

Weiterlesen