kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Pentagon schliesst Verträge mit 7 KI-Konzernen ab – Anthropic explizit ausgeschlossen
Regulierung & Ethik

Pentagon schliesst Verträge mit 7 KI-Konzernen ab – Anthropic explizit ausgeschlossen

Das US-Verteidigungsministerium hat am 1. Mai Vereinbarungen mit sieben grossen KI-Anbietern – SpaceX, OpenAI, Google, Nvidia, Reflection AI, Microsoft und AWS – für klassifizierte Netzwerke (Impact Level 6/7) bekanntgegeben. Anthropic, zuvor wegen Guardrail-Streit als «Supply-Chain Risk» geführt, fehlt explizit.

Freitag, 1. Mai 2026~2 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration eines Pentagon-Symbols mit sieben Firmen-Logos eingefügt, ein achtes Logo (Anthropic) wird ferngehalten, kinewsletter.ch Stil
Illustration eines Pentagon-Symbols mit sieben Firmen-Logos eingefügt, ein achtes Logo (Anthropic) wird ferngehalten, kinewsletter.ch Stil
Das Wichtigste

Mit dem Ausschluss von Anthropic wird die ethische Differenzierung der KI-Anbieter institutionell sichtbar – Schweizer Bundesverwaltung und regulierte Branchen bekommen damit einen klaren Werte-Filter für ihre Provider-Wahl.

Das US-Verteidigungsministerium hat am 1. Mai Vereinbarungen mit sieben grossen KI-Anbietern für den Einsatz auf klassifizierten Netzwerken bekanntgegeben: SpaceX, OpenAI, Google, Nvidia, Reflection AI, Microsoft und AWS. Die Verträge betreffen Impact Level 6 und 7 – die höchsten Geheimhaltungsstufen des US-Militärs. Anthropic, zuvor wegen Streit um Guardrails als «Supply-Chain Risk» geführt, wurde nicht aufgenommen.

Die Zahlen hinter dem Deal

  • Sieben Firmen integriert in Impact-Level-6/7-Netzwerke des DoD.
  • GenAI.mil – die Pentagon-AI-Plattform – hat bereits über 1,3 Mio. Nutzer:innen.
  • Über 600 Google-Mitarbeitende haben einen offenen Brief gegen klassifizierte AI-Arbeit für das Pentagon unterzeichnet.

Hegseth gegen Amodei

Defense Secretary Pete Hegseth nannte Anthropic-CEO Dario Amodei einen «ideological lunatic» und verglich den Guardrail-Streit mit «Boeing, das uns vorschreibt, wen wir abschiessen dürfen». Pentagon-CTO Emil Michael bezeichnete Anthropics Mythos-Modell als «separates nationales Sicherheitsmoment».

Trotz versöhnlicher Töne der Trump-Administration zuletzt ist Anthropic damit institutionell aus dem US-Verteidigungsmarkt ausgeschlossen – ein bewusster Ausschluss aufgrund von Werte-Differenzen, nicht eine technische Ablehnung.

Was die Mitarbeiter-Revolte bedeutet

Über 600 Google-Mitarbeitende unterzeichneten einen offenen Brief gegen den Pentagon-Deal. Mit der Pentagon-Vertragsunterzeichnung trotz interner Proteste setzt Google – wie schon vor zwei Tagen mit dem klassifizierten AI-Deal berichtet – ein klares Signal: Top-down-Strategieentscheidungen schlagen Bottom-up-Ethik-Bedenken.

Was das für Schweizer Unternehmen bedeutet

  1. Provider-Wahl mit Werte-Filter: Schweizer Bundesverwaltung und Kantone, regulierte Branchen wie Banken und Versicherungen können Anthropic neu als «strengere» Option positionieren.
  2. Souveränitäts-Argument verstärkt: Der Vorgang stützt Argumente für Apertus und die Strategie Digitale Schweiz 2026. Wer von US-Anbietern abhängig ist, ist auch von US-Militärentscheidungen mitabhängig.
  3. Compliance-Risiko bei US-Verträgen: Wer Microsoft 365, Google Workspace oder OpenAI Enterprise einsetzt, sollte in der Risk-Map die «Pentagon-Klausel» abbilden – und prüfen, ob Datenresidenz-Zusagen bei Verteidigungseinsätzen wirklich greifen.

Der Deal markiert die institutionelle Verankerung kommerzieller Frontier-Modelle im US-Militär – und macht die ethischen Fragen zu autonomen Waffen und Massenüberwachung endgültig zu einem Streitpunkt zwischen Anbietern. Wer als Schweizer Akteur saubere Werte-Differenzierung will, hat mit Anthropic den US-Anbieter mit dem klarsten ethischen Profil. Mit den sieben anderen geht das nicht mehr.

Fazit

Mit dem Ausschluss von Anthropic wird die ethische Differenzierung der KI-Anbieter institutionell sichtbar – Schweizer Bundesverwaltung und regulierte Branchen bekommen damit einen klaren Werte-Filter für ihre Provider-Wahl.

Quellen

  • Pentagon Reaches Agreements With Leading AI Companies (Reuters)(wird in neuem Tab geöffnet)
  • Pentagon strikes deals with 7 Big Tech companies after shunning Anthropic (CNN)(wird in neuem Tab geöffnet)
  • Seven AI firms agree Pentagon classified networks (The Hill)(wird in neuem Tab geöffnet)
  • Pentagon partners with major AI companies (Washington Times)(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Illustration einer Code-Datei mit Schweizer Kreuz-Schloss und Magnifier, der Schwachstellen markiert, kinewsletter.ch Stil
Illustration einer Code-Datei mit Schweizer Kreuz-Schloss und Magnifier, der Schwachstellen markiert, kinewsletter.ch Stil
KI-Tools & Apps
1. Mai 2026

Claude Security in Public Beta – Anthropic kontert die Mythos-getriebene Bedrohungslage

Anthropic hat Claude Security als Public Beta für Enterprise-Kunden gestartet. Das auf Opus 4.7 basierende Tool scannt Code-Repositories, validiert Schwachstellen und liefert Patch-Vorschläge – die direkt in Claude Code übernommen werden können. CrowdStrike, Microsoft Security, Palo Alto, SentinelOne, TrendAI und Wiz integrieren parallel Opus 4.7.

Wenn Mythos die Offensive industrialisiert, ist Claude Security die Defensive – Anthropics Antwort auf die eigene Zero-Day-Welle und ein neuer Standard für Software-Security-Workflows in 2026.

Weiterlesen
Illustration eines Schweizer Bundeshauses mit einem Briefumschlag, aus dem akademische Hüte und Geldscheine fallen, kinewsletter.ch Stil
Illustration eines Schweizer Bundeshauses mit einem Briefumschlag, aus dem akademische Hüte und Geldscheine fallen, kinewsletter.ch Stil
KI in der Schweiz
29. April 2026

Beobachter: Schweizer KI-Forscher von Big Tech finanziert – und lobbyieren gegen Regulierung

Eine Beobachter-Recherche von Otto Hostettler und Lukas Lippert deckt auf: Rund 100 ETH- und EPFL-Wissenschaftler warnten das Schweizer Parlament im Sommer 2025 vor «zu strengen» KI-Gesetzen. Ihre Hochschulen erhalten Millionen von Meta, Google und ByteDance.

Akademisches Lobbying gegen Schweizer KI-Regulierung kommt von Forschern, deren Hochschulen Millionen von genau jenen Konzernen erhalten, die zu regulieren sind. Eine Story, die Schweizer Politik und Forschungs-Community gleichermassen beschäftigt.

Weiterlesen
Illustration eines Gerichtssaals mit Musk- und Altman-Anwaltspulten gegenüber, Charity-Symbol über dem Richtertisch, kinewsletter.ch Stil
Illustration eines Gerichtssaals mit Musk- und Altman-Anwaltspulten gegenüber, Charity-Symbol über dem Richtertisch, kinewsletter.ch Stil
Regulierung & Ethik
29. April 2026

Musk vs. OpenAI – Civil Trial startet in Oakland

Der Zivilprozess Musk vs. OpenAI/Altman/Brockman/Microsoft startete am 28. April in Oakland mit Eröffnungsplädoyers. Musk fordert 130 Mrd. Dollar Schadenersatz, die Rückwandlung von OpenAI in eine Non-Profit-Struktur, sowie die Absetzung von Altman und Brockman.

Auch wenn der Prozess als «Musk-Show» abgetan wird – die juristische Frage, ob eine Non-Profit-Charity in eine For-Profit-Struktur überführt werden darf, schafft Präzedenz für die gesamte KI-Branche.

Weiterlesen