Das US-Verteidigungsministerium hat am 1. Mai Vereinbarungen mit sieben grossen KI-Anbietern – SpaceX, OpenAI, Google, Nvidia, Reflection AI, Microsoft und AWS – für klassifizierte Netzwerke (Impact Level 6/7) bekanntgegeben. Anthropic, zuvor wegen Guardrail-Streit als «Supply-Chain Risk» geführt, fehlt explizit.

Mit dem Ausschluss von Anthropic wird die ethische Differenzierung der KI-Anbieter institutionell sichtbar – Schweizer Bundesverwaltung und regulierte Branchen bekommen damit einen klaren Werte-Filter für ihre Provider-Wahl.
Das US-Verteidigungsministerium hat am 1. Mai Vereinbarungen mit sieben grossen KI-Anbietern für den Einsatz auf klassifizierten Netzwerken bekanntgegeben: SpaceX, OpenAI, Google, Nvidia, Reflection AI, Microsoft und AWS. Die Verträge betreffen Impact Level 6 und 7 – die höchsten Geheimhaltungsstufen des US-Militärs. Anthropic, zuvor wegen Streit um Guardrails als «Supply-Chain Risk» geführt, wurde nicht aufgenommen.
Defense Secretary Pete Hegseth nannte Anthropic-CEO Dario Amodei einen «ideological lunatic» und verglich den Guardrail-Streit mit «Boeing, das uns vorschreibt, wen wir abschiessen dürfen». Pentagon-CTO Emil Michael bezeichnete Anthropics Mythos-Modell als «separates nationales Sicherheitsmoment».
Trotz versöhnlicher Töne der Trump-Administration zuletzt ist Anthropic damit institutionell aus dem US-Verteidigungsmarkt ausgeschlossen – ein bewusster Ausschluss aufgrund von Werte-Differenzen, nicht eine technische Ablehnung.
Über 600 Google-Mitarbeitende unterzeichneten einen offenen Brief gegen den Pentagon-Deal. Mit der Pentagon-Vertragsunterzeichnung trotz interner Proteste setzt Google – wie schon vor zwei Tagen mit dem klassifizierten AI-Deal berichtet – ein klares Signal: Top-down-Strategieentscheidungen schlagen Bottom-up-Ethik-Bedenken.
Der Deal markiert die institutionelle Verankerung kommerzieller Frontier-Modelle im US-Militär – und macht die ethischen Fragen zu autonomen Waffen und Massenüberwachung endgültig zu einem Streitpunkt zwischen Anbietern. Wer als Schweizer Akteur saubere Werte-Differenzierung will, hat mit Anthropic den US-Anbieter mit dem klarsten ethischen Profil. Mit den sieben anderen geht das nicht mehr.
Mit dem Ausschluss von Anthropic wird die ethische Differenzierung der KI-Anbieter institutionell sichtbar – Schweizer Bundesverwaltung und regulierte Branchen bekommen damit einen klaren Werte-Filter für ihre Provider-Wahl.

Anthropic hat Claude Security als Public Beta für Enterprise-Kunden gestartet. Das auf Opus 4.7 basierende Tool scannt Code-Repositories, validiert Schwachstellen und liefert Patch-Vorschläge – die direkt in Claude Code übernommen werden können. CrowdStrike, Microsoft Security, Palo Alto, SentinelOne, TrendAI und Wiz integrieren parallel Opus 4.7.
Wenn Mythos die Offensive industrialisiert, ist Claude Security die Defensive – Anthropics Antwort auf die eigene Zero-Day-Welle und ein neuer Standard für Software-Security-Workflows in 2026.

Eine Beobachter-Recherche von Otto Hostettler und Lukas Lippert deckt auf: Rund 100 ETH- und EPFL-Wissenschaftler warnten das Schweizer Parlament im Sommer 2025 vor «zu strengen» KI-Gesetzen. Ihre Hochschulen erhalten Millionen von Meta, Google und ByteDance.
Akademisches Lobbying gegen Schweizer KI-Regulierung kommt von Forschern, deren Hochschulen Millionen von genau jenen Konzernen erhalten, die zu regulieren sind. Eine Story, die Schweizer Politik und Forschungs-Community gleichermassen beschäftigt.

Der Zivilprozess Musk vs. OpenAI/Altman/Brockman/Microsoft startete am 28. April in Oakland mit Eröffnungsplädoyers. Musk fordert 130 Mrd. Dollar Schadenersatz, die Rückwandlung von OpenAI in eine Non-Profit-Struktur, sowie die Absetzung von Altman und Brockman.
Auch wenn der Prozess als «Musk-Show» abgetan wird – die juristische Frage, ob eine Non-Profit-Charity in eine For-Profit-Struktur überführt werden darf, schafft Präzedenz für die gesamte KI-Branche.