kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Google, Microsoft und xAI lassen US-Behörde ihre Modelle prüfen – freiwillig
Regulierung & Ethik

Google, Microsoft und xAI lassen US-Behörde ihre Modelle prüfen – freiwillig

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.

Mittwoch, 6. Mai 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Das Wichtigste

Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Das US-Handelsministerium hat am 5. Mai bekannt gegeben, dass Google DeepMind, Microsoft und xAI dem Center for AI Standards and Innovation (CAISI) Zugriff auf ihre Frontier-Modelle vor der Veröffentlichung gewähren. Die Behörde testet die Systeme auf Risiken im Bereich nationale Sicherheit – Cyber, Bio, Chemie – bevor die Modelle live gehen. OpenAI und Anthropic hatten ähnliche Abkommen bereits 2024, jetzt zieht der Rest der grossen Labs nach.

Was CAISI bekommt – und was nicht

CAISI ist die Nachfolge-Behörde des AI Safety Institute, das unter Biden gegründet und von der Trump-Administration umbenannt wurde. Sie sitzt beim NIST (National Institute of Standards and Technology) und arbeitet im Auftrag des Handelsministeriums. Mit den neuen Vereinbarungen erhält sie:

  • Pre-Deployment-Zugriff auf neue Modelle, oft mit reduzierten oder ganz entfernten Sicherheitsschranken, um Worst-Case-Szenarien zu evaluieren
  • Targeted Research zu Cyber-Schwachstellen, biologischen und chemischen Risiken
  • Rückkanal an die Anbieter, damit Erkenntnisse vor dem Launch in Produkt-Verbesserungen einfliessen

Wichtig: Die Tests sind freiwillig. CAISI hat keine Vetomacht, kann nichts blockieren, kann keine Konzerne zur Compliance zwingen. Die Vereinbarungen funktionieren über Reputation und politischen Druck – nicht über Recht.

Trumps AI Action Plan im Hintergrund

Die Vereinbarungen sind nicht aus dem Nichts entstanden. Sie sind Teil des AI Action Plan, den die Trump-Administration im Sommer 2025 publiziert hat. Der Plan setzt auf «freiwillige Standards statt verpflichtender Regulierung» – ein Gegenmodell zum europäischen AI Act. Die OpenAI- und Anthropic-Verträge aus 2024 wurden im Zug der neuen Direktive neu verhandelt.

Für die Anbieter ist das Kalkül klar: Wer mit CAISI kooperiert, baut eine politische Versicherung gegen härtere Regulierung in Washington auf. Wer sich verweigert, riskiert Pentagon-Aufträge zu verlieren – wie aktuell Anthropic, das wegen Streits über Safety-Anforderungen bei einem grossen Verteidigungs-Deal aussen vor blieb.

DeepSeek als blinder Fleck

CAISI hat parallel zur Ankündigung eine eigene Evaluation von DeepSeek V4 Pro publiziert. Ergebnis: Das chinesische Modell liegt rund acht Monate hinter der US-Frontier zurück, vergleichbar mit GPT-5 vom August 2025. Auf den IRT-Scores (Item Response Theory) erreicht GPT-5.5 etwa 1'260 Punkte, Claude Opus 4.6 rund 999 Punkte, DeepSeek V4 Pro rund 800 Punkte.

Der Haken: Zwei der ausschlaggebenden Benchmarks – ARC-AGI-2 (semi-private) und CAISIs eigener PortBench – sind nicht-öffentlich. Auf einem geschlossenen Cybersecurity-Test (CTF-Archive-Diamond) erreichte GPT-5.5 71%, DeepSeek nur 32%. Open-Source-Communities haben die Ergebnisse bereits angefochten und werfen CAISI methodische Voreingenommenheit vor.

Was das für Schweizer Anwender bedeutet

Direkt betroffen ist die Schweiz nicht – CAISI ist eine US-Bundesbehörde. Aber zwei Effekte sind relevant:

Erstens: Die Vereinbarungen schaffen Präzedenz. Wenn Google und Microsoft ihren US-Behörden Pre-Deployment-Zugriff gewähren, sinkt die Hemmschwelle, das auch in Europa anzubieten. Das EU AI Office und das BAKOM könnten ähnliche Modelle anstreben – freiwillig oder vertraglich. Schweizer Compliance-Teams sollten beobachten, ob CAISI-Reports zur Referenz für Risk Assessments werden.

Zweitens: CAISIs Erkenntnisse zu Cyber-Risiken fliessen indirekt ins Schweizer Sicherheits-Ökosystem zurück. Was CAISI als kritisch identifiziert, kommt früher oder später in den Threat-Intelligence-Feeds des NCSC und der Industrie an. Wer Frontier-KI im Unternehmen einsetzt, sollte CAISI-Publikationen und die parallelen Analysen des britischen AISI im Blick behalten.

Vom Goodwill zur Norm

Was als freiwillige Geste begann, wird sich in den nächsten zwölf Monaten zu einer Quasi-Norm verdichten. Sobald Pentagon-Verträge an CAISI-Audits gekoppelt werden – und genau das wird gerade verhandelt – wird der «freiwillige» Test zur Markteintritts-Bedingung. Anthropic hat in dieser Woche bereits gezeigt, was passiert, wenn die Beziehung zu CAISI bröckelt: Pentagon-Aussperrung. Das ist der Hebel, der die Vereinbarungen am Ende durchsetzt.

Fazit

Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Quellen

  • CAISI Signs Agreements Regarding Frontier AI National Security Testing – NIST(wird in neuem Tab geöffnet)
  • Microsoft, Google and xAI will let the government test their AI models before launch – CNN(wird in neuem Tab geöffnet)
  • Microsoft, Google, xAI give US access to AI models for security testing – Al Jazeera(wird in neuem Tab geöffnet)
  • CAISI Evaluation of DeepSeek V4 Pro – NIST(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

«Moment of Danger»: Anthropic-CEO warnt vor 12-Monats-Fenster, in dem KI Software auseinandernimmt

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.

Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Weiterlesen
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
KI-Business
5. Mai 2026

Anthropic gegen OpenAI: Beide Labs zünden am selben Tag ein PE-Vehikel für Enterprise-KI

Anthropic und OpenAI haben am selben Tag konkurrierende Enterprise-Vehikel mit Wall Street verkündet. Anthropic baut mit Blackstone, Goldman und Hellman & Friedman eine 1,5-Mrd.-Firma; OpenAI startet mit TPG, Bain und SoftBank «The Deployment Company» mit 10 Mrd. Bewertung – und garantiert Investoren 17,5% Rendite pro Jahr.

Beide Labs schalten die KI-Beratungsindustrie aus und verkaufen ein Stück ihrer Enterprise-Marge an Private-Equity-Häuser, um direkten Zugang zu deren Portfolio-Firmen zu bekommen.

Weiterlesen
Illustration: Keksdose mit Krümeln und Lupe, kinewsletter.ch Stil
Illustration: Keksdose mit Krümeln und Lupe, kinewsletter.ch Stil
Regulierung & Ethik
4. Mai 2026

OpenAI macht ChatGPT-Free zur Werbe-Pipeline – per Default

OpenAI aktiviert für Free-Konten standardmässig Marketing-Cookies. Cookie-IDs und E-Mail-Adressen wandern an Werbepartner – Plus- und Enterprise-Accounts bleiben verschont. Was das für dich heisst und wie du den Schalter umlegst.

OpenAI dreht den Datenschutz-Default um: Free-Nutzer werden ohne aktive Zustimmung zur Werbe-Pipeline – Plus und Enterprise nicht.

Weiterlesen