kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. OpenAI wird Militärlieferant – und die eigenen Leute rebellieren
Regulierung & EthikKI-Business

OpenAI wird Militärlieferant – und die eigenen Leute rebellieren

OpenAI hat einen 200-Millionen-Dollar-Vertrag mit dem Pentagon abgeschlossen und verhandelt nun auch mit der NATO. Intern gibt es heftigen Widerstand – CEO Altman nennt die Situation "really painful".

Donnerstag, 5. März 2026~4 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration eines militärischen Kommandoraums mit Weltkarte, Flaggen und Konferenztisch im kinewsletter.ch Sketch-Stil
Illustration eines militärischen Kommandoraums mit Weltkarte, Flaggen und Konferenztisch im kinewsletter.ch Sketch-Stil
Das Wichtigste

OpenAIs Wandel vom Safety-Vorreiter zum Militärlieferanten markiert einen Paradigmenwechsel in der KI-Branche – mit weitreichenden Folgen für das Vertrauen in KI-Anbieter.

Noch vor einem Jahr stand "Safety First" auf OpenAIs Fahne. Jetzt liefert das Unternehmen KI ans Pentagon und verhandelt mit der NATO. Der Wandel ging schneller, als die meisten erwartet hätten – und intern brodelt es gewaltig.

Vom Safety-Vorreiter zum Rüstungspartner in 72 Stunden

Die Vorgeschichte liest sich wie ein Politthriller: Anthropic, OpenAIs grösster Konkurrent, verhandelte monatelang mit dem Pentagon über einen KI-Vertrag im Wert von bis zu 200 Millionen Dollar. Anthropic bestand darauf, dass seine Modelle nicht für Massenüberwachung oder autonome Waffen eingesetzt werden dürfen. Das Pentagon wollte freie Hand für alle legalen Einsatzzwecke. Die Verhandlungen scheiterten.

Was dann passierte, war beispiellos: Präsident Trump ordnete an, dass die gesamte US-Regierung Anthropic-Produkte nicht mehr nutzen darf. Das Pentagon stufte das Unternehmen als Sicherheitsrisiko in der Lieferkette ein. Und nur Stunden später – am selben Tag – verkündete OpenAI seinen eigenen Deal mit dem Verteidigungsministerium.

200 Millionen Dollar und drei "rote Linien"

Der Vertrag läuft über das Chief Digital and Artificial Intelligence Office (CDAO) des Pentagons und hat ein Volumen von bis zu 200 Millionen Dollar. OpenAI formulierte drei Einschränkungen: keine Massenüberwachung von US-Bürgern, keine autonomen Waffensysteme und keine automatisierten Hochrisiko-Entscheidungen wie ein Sozialkreditsystem.

Allerdings: Die vollständigen Vertragsdetails sind nicht öffentlich. Kritiker bemängeln, dass die veröffentlichten Ausschnitte bewusst vage formuliert seien und Schlupflöcher für Überwachung liessen. CEO Sam Altman räumte ein, der Deal sei "opportunistic and sloppy" gewesen – man habe eine schlechtere Entwicklung verhindern wollen, aber die Umsetzung sei zu hastig erfolgt. Nachträglich wurde der Vertrag um eine explizite Klausel ergänzt, die den Einsatz zur Überwachung von US-Personen ausschliesst.

Jetzt auch die NATO im Visier

Wenige Tage nach dem Pentagon-Deal wurde bekannt, dass OpenAI auch einen Vertrag mit der NATO prüft. Im internen All-Hands-Meeting sprach Altman zunächst davon, die Technologie auf "allen klassifizierten Netzwerken" der NATO bereitzustellen. Eine Sprecherin korrigierte: Es gehe nur um nicht-klassifizierte Systeme. Die NATO – ein Bündnis aus 32 Mitgliedsstaaten – hat sich bisher nicht öffentlich geäussert.

Der Kontext ist brisant: Investoren sprechen von einem "AI Gold Rush" im Verteidigungssektor, nachdem NATO-Mitglieder ihre Rüstungsbudgets massiv erhöht haben. Für OpenAI wäre ein NATO-Vertrag der nächste Schritt in Richtung militärischer Grosslieferant.

"You don't get to weigh in"

Die Stimmung bei OpenAI ist angespannt. An einem All-Hands-Meeting am Dienstag stellte sich Altman den Fragen seiner Mitarbeitenden. Seine zentrale Botschaft: Über konkrete Militäreinsätze entscheide das Pentagon, nicht OpenAI. Wörtlich sagte er laut CNBC: "So maybe you think the Iran strike was good and the Venezuela invasion was bad. You don't get to weigh in on that."

Altman sprach von "extremely difficult brand consequences" und nannte die Situation "really painful". Vor dem Hauptquartier in San Francisco forderten Aktivisten Mitarbeitende zum Kündigen auf. Die Stimmung im Meeting sei zwar respektvoll gewesen, aber die Belegschaft bohre bei den technischen Details des Vertrags nach, berichteten Teilnehmende.

Die Marktreaktion war deutlich: Anthropics Chat-App Claude stieg am Wochenende auf Platz 1 im Apple App Store – und verdrängte damit erstmals ChatGPT von der Spitze. Unter dem Hashtag #CancelChatGPT teilten Nutzer Anleitungen zur Migration auf Konkurrenzprodukte.

Was das für die Schweiz bedeutet

Die Schweiz ist kein NATO-Mitglied – aber die Entwicklung betrifft uns trotzdem. Wenn der weltweit meistgenutzte KI-Anbieter zum Militärlieferanten wird, stellt das grundlegende Fragen: Welchen KI-Anbietern vertrauen Schweizer Unternehmen und Behörden ihre Daten an? Wie positioniert sich die Schweiz in einer Welt, in der KI-Neutralität zunehmend unter Druck gerät?

Für dich als ChatGPT-Nutzer bedeutet das: Dein Anbieter priorisiert jetzt Regierungsverträge im Verteidigungsbereich. Ob das die Produktentwicklung, die Datenpolitik oder die Verfügbarkeit beeinflusst, wird sich zeigen.

Der Paradigmenwechsel ist da

Die Geschwindigkeit dieses Wandels ist bemerkenswert: Von "wir arbeiten nicht mit dem Militär" über "wir arbeiten defensiv mit dem Militär" bis zu einem 200-Millionen-Dollar-Vertrag mit dem Pentagon – in weniger als zwei Jahren. OpenAI steht damit exemplarisch für ein Dilemma der gesamten KI-Branche: Der wirtschaftliche Druck der Megafinanzierungen (OpenAI hat zuletzt 40 Milliarden Dollar eingesammelt) kollidiert mit den ethischen Grundsätzen, auf denen das Unternehmen einst gegründet wurde.

Die nächste Frage ist nicht ob, sondern wie schnell andere KI-Unternehmen nachziehen.

Teilen:

Das könnte dich auch interessieren

Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Handgezeichnete Skizze: Denkfabrik-Gebäude mit KI-Gehirn und Schutzschild – Anthropic Institute für KI-Sicherheit
Regulierung & Ethik
12. März 2026

Anthropic gründet hauseigene Denkfabrik für KI-Risiken

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».

Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Weiterlesen
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Pentagon-Gebäude mit amerikanischer Flagge, Richterhammer auf Marmorständer und Militär-Emblem – symbolisiert den Rechtsstreit zwischen Anthropic und dem US-Verteidigungsministerium
Regulierung & Ethik
11. März 2026

Pentagon setzt auf Google Gemini — Anthropic verklagt US-Regierung

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.

Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Weiterlesen
Illustration zum Thema Anthropic verklagt die US-Regierung
Illustration zum Thema Anthropic verklagt die US-Regierung
Regulierung & Ethik
10. März 2026

Anthropic verklagt die US-Regierung – der grösste KI-Ethik-Showdown

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.

Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.

Weiterlesen