kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Neue Modelle
  4. OpenAI, Anthropic und Google verbünden sich gegen chinesisches Modell-Kopieren
Neue Modelle

OpenAI, Anthropic und Google verbünden sich gegen chinesisches Modell-Kopieren

OpenAI, Anthropic und Google teilen erstmals Informationen, um Modell-Kopieren durch chinesische KI-Firmen zu blockieren.

Montag, 13. April 2026~1 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration Präsentationsraum mit Projektor, kinewsletter.ch Stil
Illustration Präsentationsraum mit Projektor, kinewsletter.ch Stil
Das Wichtigste

Die KI-Branche bewegt sich von Wettbewerb zu koordinierter Verteidigung gegen staatlich unterstütztes Modell-Kopieren.

Die drei grössten westlichen KI-Labore teilen erstmals systematisch Informationen, um das Kopieren ihrer Modelle durch chinesische KI-Firmen zu erkennen und zu blockieren. Im Visier: DeepSeek, Moonshot AI und MiniMax.

Anthropic dokumentierte 16 Millionen unautorisierte Abfragen von rund 24'000 betrügerischen Accounts. Die Aufschlüsselung zeigt das Ausmass: MiniMax allein war für über 13 Millionen Anfragen verantwortlich, Moonshot AI für über 3,4 Millionen, DeepSeek für etwa 150'000. Die Firmen nutzten Fake-Accounts und Proxy-Dienste mit sogenannten «Hydra-Cluster»-Architekturen, um die Erkennung zu umgehen.

Die Kooperation läuft über das Frontier Model Forum – ein Konsortium, das OpenAI, Anthropic, Google und Microsoft 2023 gegründet hatten. Das Ziel: sogenannte «adversarial distillation» erkennen, also das systematische Abfragen von Modellen, um deren Wissen in eigene, kleinere Modelle zu extrahieren.

Die KI-Branche bewegt sich damit von reinem Wettbewerb zu koordinierter Verteidigung gegen staatlich unterstütztes Modell-Kopieren – ein neues Kapitel im technologischen Wettstreit zwischen den USA und China.

Quellen

  • Bloomberg: Anti-copying coalition(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Illustration Boxring mit Spotlights, kinewsletter.ch Stil
Illustration Boxring mit Spotlights, kinewsletter.ch Stil
Neue Modelle
14. April 2026Premium

Internes OpenAI-Memo geleakt: Fünf Enterprise-Prioritäten und offene Vorwürfe gegen Anthropic

Ein geleaktes internes OpenAI-Memo zeigt fünf Enterprise-Prioritäten und wirft Anthropic vor, Umsatzzahlen um Milliarden aufzublähen. Der Wettbewerb eskaliert.

Aus «frenemies» sind erklärte Konkurrenten geworden – mit direkten Folgen für Schweizer Enterprise-Kunden.

Weiterlesen
Illustration Banken-Handelsraum mit Tresor, kinewsletter.ch Stil
Illustration Banken-Handelsraum mit Tresor, kinewsletter.ch Stil
Regulierung & Ethik
14. April 2026Premium

Zentralbanken in Alarmbereitschaft: Wie Claude Mythos zum systemischen Finanzrisiko wird

Bank of England, Fed und Bank of Canada briefen Grossbanken zu Claude Mythos. Erstmals wird ein KI-Modell offiziell als systemisches Finanzrisiko gewertet. Auch die Schweiz reagiert.

KI-Sicherheit ist nicht mehr IT-Thema, sondern systemisches Finanzrisiko – mit direkter Relevanz für FINMA und UBS.

Weiterlesen
Illustration Labor-Tresorraum, kinewsletter.ch Stil
Illustration Labor-Tresorraum, kinewsletter.ch Stil
Neue Modelle
13. April 2026Premium

Anthropic hält sein stärkstes KI-Modell unter Verschluss – weil es zu gefährlich ist

Anthropic bestätigt: Claude Mythos ist das leistungsstärkste KI-Modell – wird aber nicht öffentlich freigegeben. Es kann autonom Zehntausende Software-Schwachstellen finden und ausnutzen.

Erstmals wird ein Frontier-Modell bewusst zurückgehalten, weil seine Fähigkeiten als zu gefährlich für den öffentlichen Einsatz eingestuft werden.

Weiterlesen