Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.

Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.
Das US-Handelsministerium hat am 5. Mai bekannt gegeben, dass Google DeepMind, Microsoft und xAI dem Center for AI Standards and Innovation (CAISI) Zugriff auf ihre Frontier-Modelle vor der Veröffentlichung gewähren. Die Behörde testet die Systeme auf Risiken im Bereich nationale Sicherheit – Cyber, Bio, Chemie – bevor die Modelle live gehen. OpenAI und Anthropic hatten ähnliche Abkommen bereits 2024, jetzt zieht der Rest der grossen Labs nach.
CAISI ist die Nachfolge-Behörde des AI Safety Institute, das unter Biden gegründet und von der Trump-Administration umbenannt wurde. Sie sitzt beim NIST (National Institute of Standards and Technology) und arbeitet im Auftrag des Handelsministeriums. Mit den neuen Vereinbarungen erhält sie:
Wichtig: Die Tests sind freiwillig. CAISI hat keine Vetomacht, kann nichts blockieren, kann keine Konzerne zur Compliance zwingen. Die Vereinbarungen funktionieren über Reputation und politischen Druck – nicht über Recht.
Die Vereinbarungen sind nicht aus dem Nichts entstanden. Sie sind Teil des AI Action Plan, den die Trump-Administration im Sommer 2025 publiziert hat. Der Plan setzt auf «freiwillige Standards statt verpflichtender Regulierung» – ein Gegenmodell zum europäischen AI Act. Die OpenAI- und Anthropic-Verträge aus 2024 wurden im Zug der neuen Direktive neu verhandelt.
Für die Anbieter ist das Kalkül klar: Wer mit CAISI kooperiert, baut eine politische Versicherung gegen härtere Regulierung in Washington auf. Wer sich verweigert, riskiert Pentagon-Aufträge zu verlieren – wie aktuell Anthropic, das wegen Streits über Safety-Anforderungen bei einem grossen Verteidigungs-Deal aussen vor blieb.
CAISI hat parallel zur Ankündigung eine eigene Evaluation von DeepSeek V4 Pro publiziert. Ergebnis: Das chinesische Modell liegt rund acht Monate hinter der US-Frontier zurück, vergleichbar mit GPT-5 vom August 2025. Auf den IRT-Scores (Item Response Theory) erreicht GPT-5.5 etwa 1'260 Punkte, Claude Opus 4.6 rund 999 Punkte, DeepSeek V4 Pro rund 800 Punkte.
Der Haken: Zwei der ausschlaggebenden Benchmarks – ARC-AGI-2 (semi-private) und CAISIs eigener PortBench – sind nicht-öffentlich. Auf einem geschlossenen Cybersecurity-Test (CTF-Archive-Diamond) erreichte GPT-5.5 71%, DeepSeek nur 32%. Open-Source-Communities haben die Ergebnisse bereits angefochten und werfen CAISI methodische Voreingenommenheit vor.
Direkt betroffen ist die Schweiz nicht – CAISI ist eine US-Bundesbehörde. Aber zwei Effekte sind relevant:
Erstens: Die Vereinbarungen schaffen Präzedenz. Wenn Google und Microsoft ihren US-Behörden Pre-Deployment-Zugriff gewähren, sinkt die Hemmschwelle, das auch in Europa anzubieten. Das EU AI Office und das BAKOM könnten ähnliche Modelle anstreben – freiwillig oder vertraglich. Schweizer Compliance-Teams sollten beobachten, ob CAISI-Reports zur Referenz für Risk Assessments werden.
Zweitens: CAISIs Erkenntnisse zu Cyber-Risiken fliessen indirekt ins Schweizer Sicherheits-Ökosystem zurück. Was CAISI als kritisch identifiziert, kommt früher oder später in den Threat-Intelligence-Feeds des NCSC und der Industrie an. Wer Frontier-KI im Unternehmen einsetzt, sollte CAISI-Publikationen und die parallelen Analysen des britischen AISI im Blick behalten.
Was als freiwillige Geste begann, wird sich in den nächsten zwölf Monaten zu einer Quasi-Norm verdichten. Sobald Pentagon-Verträge an CAISI-Audits gekoppelt werden – und genau das wird gerade verhandelt – wird der «freiwillige» Test zur Markteintritts-Bedingung. Anthropic hat in dieser Woche bereits gezeigt, was passiert, wenn die Beziehung zu CAISI bröckelt: Pentagon-Aussperrung. Das ist der Hebel, der die Vereinbarungen am Ende durchsetzt.
Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.
Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Anthropic und OpenAI haben am selben Tag konkurrierende Enterprise-Vehikel mit Wall Street verkündet. Anthropic baut mit Blackstone, Goldman und Hellman & Friedman eine 1,5-Mrd.-Firma; OpenAI startet mit TPG, Bain und SoftBank «The Deployment Company» mit 10 Mrd. Bewertung – und garantiert Investoren 17,5% Rendite pro Jahr.
Beide Labs schalten die KI-Beratungsindustrie aus und verkaufen ein Stück ihrer Enterprise-Marge an Private-Equity-Häuser, um direkten Zugang zu deren Portfolio-Firmen zu bekommen.

OpenAI aktiviert für Free-Konten standardmässig Marketing-Cookies. Cookie-IDs und E-Mail-Adressen wandern an Werbepartner – Plus- und Enterprise-Accounts bleiben verschont. Was das für dich heisst und wie du den Schalter umlegst.
OpenAI dreht den Datenschutz-Default um: Free-Nutzer werden ohne aktive Zustimmung zur Werbe-Pipeline – Plus und Enterprise nicht.