OpenAI, Anthropic und Google teilen erstmals Informationen, um Modell-Kopieren durch chinesische KI-Firmen zu blockieren.

Die KI-Branche bewegt sich von Wettbewerb zu koordinierter Verteidigung gegen staatlich unterstütztes Modell-Kopieren.
Die drei grössten westlichen KI-Labore teilen erstmals systematisch Informationen, um das Kopieren ihrer Modelle durch chinesische KI-Firmen zu erkennen und zu blockieren. Im Visier: DeepSeek, Moonshot AI und MiniMax.
Anthropic dokumentierte 16 Millionen unautorisierte Abfragen von rund 24'000 betrügerischen Accounts. Die Aufschlüsselung zeigt das Ausmass: MiniMax allein war für über 13 Millionen Anfragen verantwortlich, Moonshot AI für über 3,4 Millionen, DeepSeek für etwa 150'000. Die Firmen nutzten Fake-Accounts und Proxy-Dienste mit sogenannten «Hydra-Cluster»-Architekturen, um die Erkennung zu umgehen.
Die Kooperation läuft über das Frontier Model Forum – ein Konsortium, das OpenAI, Anthropic, Google und Microsoft 2023 gegründet hatten. Das Ziel: sogenannte «adversarial distillation» erkennen, also das systematische Abfragen von Modellen, um deren Wissen in eigene, kleinere Modelle zu extrahieren.
Die KI-Branche bewegt sich damit von reinem Wettbewerb zu koordinierter Verteidigung gegen staatlich unterstütztes Modell-Kopieren – ein neues Kapitel im technologischen Wettstreit zwischen den USA und China.

Ein geleaktes internes OpenAI-Memo zeigt fünf Enterprise-Prioritäten und wirft Anthropic vor, Umsatzzahlen um Milliarden aufzublähen. Der Wettbewerb eskaliert.
Aus «frenemies» sind erklärte Konkurrenten geworden – mit direkten Folgen für Schweizer Enterprise-Kunden.

Bank of England, Fed und Bank of Canada briefen Grossbanken zu Claude Mythos. Erstmals wird ein KI-Modell offiziell als systemisches Finanzrisiko gewertet. Auch die Schweiz reagiert.
KI-Sicherheit ist nicht mehr IT-Thema, sondern systemisches Finanzrisiko – mit direkter Relevanz für FINMA und UBS.

Anthropic bestätigt: Claude Mythos ist das leistungsstärkste KI-Modell – wird aber nicht öffentlich freigegeben. Es kann autonom Zehntausende Software-Schwachstellen finden und ausnutzen.
Erstmals wird ein Frontier-Modell bewusst zurückgehalten, weil seine Fähigkeiten als zu gefährlich für den öffentlichen Einsatz eingestuft werden.