Google hat einen Vertrag mit dem US-Verteidigungsministerium unterzeichnet, der Gemini für klassifizierte Militäraufgaben freigibt – einen Tag, nachdem über 580 Mitarbeitende in einem offenen Brief an Sundar Pichai genau das ablehnten. Der Vertrag spiegelt die Konditionen, die Anthropic im Februar abgelehnt hatte.

Mit Googles Pentagon-Deal ist die «AI for Good»-Selbstbeschränkung der grossen US-Labs faktisch beendet – ausser bei Anthropic. Schweizer Compliance-Verantwortliche bekommen damit ein neues Differenzierungsmerkmal bei der Provider-Wahl.
Am 28. April hat Google einen Vertrag mit dem US-Verteidigungsministerium unterzeichnet, der den Einsatz von Gemini-Modellen für klassifizierte Militäraufgaben für «any lawful government purpose» erlaubt. Einen Tag zuvor hatten über 580 Google-Mitarbeitende in einem offenen Brief an Sundar Pichai genau das abgelehnt – im Verlauf wuchs die Zahl auf 950+. Unterzeichner: Direktoren und VPs aus Google DeepMind und Google Cloud.
We want to see AI benefit humanity, not being used in inhumane or extremely harmful ways. The only way to guarantee that Google does not become associated with such harms is to reject any classified workloads.
Der Brief ist mehr als symbolisch. Er kommt acht Jahre nach der Project-Maven-Affäre, bei der Google nach internen Protesten ein Pentagon-AI-Engagement beendet hatte. Im Februar 2025 entfernte Google die «no weapons or surveillance»-Klausel aus seinen AI Principles. Trajektorie: Dezember 2022 9-Mrd-Dollar-JWCC-Vertrag → Dezember 2025 GenAI.mil mit Gemini → März 2026 Gemini-Agents auf 3 Mio. unklassifizierten DoD-Workstations → April 2026 klassifizierte Netzwerke.
Anthropic-CEO Dario Amodei hatte dieselben Konditionen im Februar 2026 abgelehnt. Konsequenz: Das Pentagon brandmarkte Anthropic als «supply chain risk» – ein Label, das normalerweise ausländischen Gegnern vorbehalten ist. Anthropic hat eine Injunction gegen die Designation erwirkt. Bemerkenswert: Im Februar verzichtete Google still auf einen 100-Mio-Dollar Drone-Swarm-Wettbewerb nach interner Ethik-Review – die jetzige Vertragsunterzeichnung ist also eine bewusste strategische Wende, nicht der erste Pentagon-Vorstoss.
Die Story markiert das endgültige Ende der «AI for Good»-Selbstbeschränkung der grossen US-Labs. Wer Anthropic früher als idealistisch belächelte, sieht jetzt die Konsequenz: Marktausschluss vom Pentagon, aber öffentliche Glaubwürdigkeit als «letzte AI-Firma mit Linie».
Für Schweizer Unternehmen heisst das: Provider-Auswahl ist nicht mehr nur eine Performance- und Compliance-Frage, sondern auch eine Werte-Entscheidung. Und die Schweizer Öffentlichkeit reagiert auf solche Differenzierungen empfindlicher als die US-amerikanische.
Mit Googles Pentagon-Deal ist die «AI for Good»-Selbstbeschränkung der grossen US-Labs faktisch beendet – ausser bei Anthropic. Schweizer Compliance-Verantwortliche bekommen damit ein neues Differenzierungsmerkmal bei der Provider-Wahl.

Eine Beobachter-Recherche von Otto Hostettler und Lukas Lippert deckt auf: Rund 100 ETH- und EPFL-Wissenschaftler warnten das Schweizer Parlament im Sommer 2025 vor «zu strengen» KI-Gesetzen. Ihre Hochschulen erhalten Millionen von Meta, Google und ByteDance.
Akademisches Lobbying gegen Schweizer KI-Regulierung kommt von Forschern, deren Hochschulen Millionen von genau jenen Konzernen erhalten, die zu regulieren sind. Eine Story, die Schweizer Politik und Forschungs-Community gleichermassen beschäftigt.

Der Zivilprozess Musk vs. OpenAI/Altman/Brockman/Microsoft startete am 28. April in Oakland mit Eröffnungsplädoyers. Musk fordert 130 Mrd. Dollar Schadenersatz, die Rückwandlung von OpenAI in eine Non-Profit-Struktur, sowie die Absetzung von Altman und Brockman.
Auch wenn der Prozess als «Musk-Show» abgetan wird – die juristische Frage, ob eine Non-Profit-Charity in eine For-Profit-Struktur überführt werden darf, schafft Präzedenz für die gesamte KI-Branche.

Der zweite und voraussichtlich entscheidende Trilog zum Digital Omnibus on AI tagt heute in Strassburg. Konsens steht bei den fixen Stichtagen 2. Dezember 2027 (Hochrisiko Annex III) und 2. August 2028 (eingebettete KI Annex I). Streitpunkte: Watermarking-Frist, Annex-I-Verlagerung, AI-Office-Inspektionen.
Die fixen EU-Stichtage stehen, aber Watermarking, Sektor-Recht und AI-Literacy bleiben offene Streitpunkte – Schweizer Anbieter im EU-Markt sollten ihre Compliance-Roadmap auf 2027/2028 ausrichten.