Über 1,5 Millionen Menschen boykottieren ChatGPT – nicht wegen schlechter Performance, sondern weil OpenAI einen Deal mit dem Pentagon unterschrieben hat. Am 3. März protestieren sie vor der OpenAI-Zentrale in San Francisco.

OpenAIs Pentagon-Deal ohne explizite Anti-Überwachungs-Garantien löst die grösste KI-Boykott-Bewegung aus – und zeigt, dass Ethik zum Wettbewerbsfaktor wird.
Über 1,5 Millionen Menschen boykottieren ChatGPT – nicht wegen schlechter Performance, sondern weil OpenAI einen Deal mit dem Pentagon unterschrieben hat. Am 3. März protestieren sie vor der OpenAI-Zentrale in San Francisco. Der Grund? Ein vermeintlich «lawful» Militär-Angebot, das eine ethische Linie überschreitet.
Alles begann mit einer klaren Ansage: CEO Dario Amodei von Anthropic sagte dem Pentagon «nein». Die Begründung war eindeutig – Anthropic werde kein Geschäft mit dem US-Militär eingehen, das nicht explizit die Nutzung von Claude für Massenüberwachung oder autonome Waffen ausschliesst. Das war die rote Linie.
Dann kam Sam Altman von OpenAI mit einer anderen Idee. Er unterschrieb den Pentagon-Deal – ohne diese Garantien. Sein Argument? Das Militär werde sich sowieso ans Gesetz halten, deswegen seien explizite Verbote unnötig. Nur: Das ist eine beachtliche Annahme.
Hier wird es knifflig. OpenAI sagt: Das Pentagon darf die KI nicht für illegale Zwecke einsetzen. Aber Massenüberwachung von Amerikaner*innen? Das ist legal – solange die Regierung Daten von privaten Datenhändlern kauft und ein KI-Modell darauf loslässt. Technisch gesehen ein Umweg, rechtlich gesehen eine Grauzone.
Anthropic hatte genau das nicht wollen und forderte explizite Verbote. OpenAI vertraute darauf, dass Gesetze eingehalten werden. Selbst Altman gab später zu, dass der Deal «definitely rushed» war und optisch nicht gut aussieht.
Die QuitGPT-Bewegung entstand als Grassroots-Boykott. Menschen canceln ChatGPT-Abos, teilen ihre Kündigung auf Social Media, und viele wechseln zu Claude von Anthropic. Das Ergebnis ist beeindruckend: Claude sprang kurzzeitig zur meistgeladenen kostenlosen App im Apple App Store – eine klare Botschaft an OpenAI.
Es geht nicht nur ums Pentagon. Greg Brockman (OpenAI-Präsident) und seine Frau spendeten 25 Millionen Dollar an Trump-nahe Super PACs. CEO Altman selbst trug eine weitere Million zum Trump-Wahlfonds bei. Die Gesamtaufnahme: OpenAI rückt näher an die Trump-Administration, und das macht vielen Nutzer*innen Unbehagen.
Spannend ist, was das für die Tech-Branche bedeutet. Anthropic positioniert sich als die «ethischere» Alternative – und das kommt bei Millionen an. OpenAI muss sich rechtfertigen und hat bereits nachgebessert: Sie fügten stärker formulierte Anti-Überwachungs-Klauseln hinzu. Aber die Skepsis bleibt.
In der Schweiz ist dieser Streit weniger präsent, aber relevant für alle, die KI-Tools nutzen oder investieren. Es geht um die grundsätzliche Frage: Wer kontrolliert die mächtigsten KI-Modelle, und an wessen Interessen sind sie gebunden?
Der Protest am 3. März vor OpenAI HQ wird zeigen, wie stark die Bewegung wirklich ist. OpenAI wird das Problem nicht einfach aussitzen können – die Marktreaktion (Claude vs. ChatGPT) zeigt, dass Ethik ein Wettbewerbsfaktor ist. Anthropic hat das verstanden. OpenAI muss das jetzt auch verstehen.
Für dich als ChatGPT-Nutzer heisst das konkret: Hast du ethische Bedenken, sind die Alternativen inzwischen sehr konkurrenzfähig. Der Wettbewerb um die besten KI-Modelle wird immer mehr auch ein Wettbewerb um Vertrauen.
OpenAIs Pentagon-Deal ohne explizite Anti-Überwachungs-Garantien löst die grösste KI-Boykott-Bewegung aus – und zeigt, dass Ethik zum Wettbewerbsfaktor wird.

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.
Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.
Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Anthropic und OpenAI haben am selben Tag konkurrierende Enterprise-Vehikel mit Wall Street verkündet. Anthropic baut mit Blackstone, Goldman und Hellman & Friedman eine 1,5-Mrd.-Firma; OpenAI startet mit TPG, Bain und SoftBank «The Deployment Company» mit 10 Mrd. Bewertung – und garantiert Investoren 17,5% Rendite pro Jahr.
Beide Labs schalten die KI-Beratungsindustrie aus und verkaufen ein Stück ihrer Enterprise-Marge an Private-Equity-Häuser, um direkten Zugang zu deren Portfolio-Firmen zu bekommen.