Über 1,5 Millionen Menschen boykottieren ChatGPT – nicht wegen schlechter Performance, sondern weil OpenAI einen Deal mit dem Pentagon unterschrieben hat. Am 3. März protestieren sie vor der OpenAI-Zentrale in San Francisco.

OpenAIs Pentagon-Deal ohne explizite Anti-Überwachungs-Garantien löst die grösste KI-Boykott-Bewegung aus – und zeigt, dass Ethik zum Wettbewerbsfaktor wird.
Über 1,5 Millionen Menschen boykottieren ChatGPT – nicht wegen schlechter Performance, sondern weil OpenAI einen Deal mit dem Pentagon unterschrieben hat. Am 3. März protestieren sie vor der OpenAI-Zentrale in San Francisco. Der Grund? Ein vermeintlich «lawful» Militär-Angebot, das eine ethische Linie überschreitet.
Alles begann mit einer klaren Ansage: CEO Dario Amodei von Anthropic sagte dem Pentagon «nein». Die Begründung war eindeutig – Anthropic werde kein Geschäft mit dem US-Militär eingehen, das nicht explizit die Nutzung von Claude für Massenüberwachung oder autonome Waffen ausschliesst. Das war die rote Linie.
Dann kam Sam Altman von OpenAI mit einer anderen Idee. Er unterschrieb den Pentagon-Deal – ohne diese Garantien. Sein Argument? Das Militär werde sich sowieso ans Gesetz halten, deswegen seien explizite Verbote unnötig. Nur: Das ist eine beachtliche Annahme.
Hier wird es knifflig. OpenAI sagt: Das Pentagon darf die KI nicht für illegale Zwecke einsetzen. Aber Massenüberwachung von Amerikaner*innen? Das ist legal – solange die Regierung Daten von privaten Datenhändlern kauft und ein KI-Modell darauf loslässt. Technisch gesehen ein Umweg, rechtlich gesehen eine Grauzone.
Anthropic hatte genau das nicht wollen und forderte explizite Verbote. OpenAI vertraute darauf, dass Gesetze eingehalten werden. Selbst Altman gab später zu, dass der Deal «definitely rushed» war und optisch nicht gut aussieht.
Die QuitGPT-Bewegung entstand als Grassroots-Boykott. Menschen canceln ChatGPT-Abos, teilen ihre Kündigung auf Social Media, und viele wechseln zu Claude von Anthropic. Das Ergebnis ist beeindruckend: Claude sprang kurzzeitig zur meistgeladenen kostenlosen App im Apple App Store – eine klare Botschaft an OpenAI.
Es geht nicht nur ums Pentagon. Greg Brockman (OpenAI-Präsident) und seine Frau spendeten 25 Millionen Dollar an Trump-nahe Super PACs. CEO Altman selbst trug eine weitere Million zum Trump-Wahlfonds bei. Die Gesamtaufnahme: OpenAI rückt näher an die Trump-Administration, und das macht vielen Nutzer*innen Unbehagen.
Spannend ist, was das für die Tech-Branche bedeutet. Anthropic positioniert sich als die «ethischere» Alternative – und das kommt bei Millionen an. OpenAI muss sich rechtfertigen und hat bereits nachgebessert: Sie fügten stärker formulierte Anti-Überwachungs-Klauseln hinzu. Aber die Skepsis bleibt.
In der Schweiz ist dieser Streit weniger präsent, aber relevant für alle, die KI-Tools nutzen oder investieren. Es geht um die grundsätzliche Frage: Wer kontrolliert die mächtigsten KI-Modelle, und an wessen Interessen sind sie gebunden?
Der Protest am 3. März vor OpenAI HQ wird zeigen, wie stark die Bewegung wirklich ist. OpenAI wird das Problem nicht einfach aussitzen können – die Marktreaktion (Claude vs. ChatGPT) zeigt, dass Ethik ein Wettbewerbsfaktor ist. Anthropic hat das verstanden. OpenAI muss das jetzt auch verstehen.
Für dich als ChatGPT-Nutzer heisst das konkret: Hast du ethische Bedenken, sind die Alternativen inzwischen sehr konkurrenzfähig. Der Wettbewerb um die besten KI-Modelle wird immer mehr auch ein Wettbewerb um Vertrauen.

Anthropic hat drei interne Teams zum «Anthropic Institute» zusammengelegt — einer Denkfabrik unter Mitgründer Jack Clark, die erforschen soll, wie KI Arbeit und Gesellschaft verändert. Erstes Projekt: ein fortlaufender «Economic Index».
Anthropic will mit einer eigenen Denkfabrik die KI-Debatte mitgestalten — und gleichzeitig seine Position im Streit mit dem Pentagon stärken.

Das US-Verteidigungsministerium stuft Anthropic als «Supply-Chain-Risiko» ein, weil das Unternehmen KI-Sicherheitsprinzipien nicht aufgeben will. Google übernimmt mit Gemini die Pentagon-Plattform – Anthropic klagt vor zwei US-Gerichten.
Anthropic wird vom Pentagon bestraft, weil es rote Linien bei Massenüberwachung und autonomen Waffen nicht streichen will – Google füllt die Lücke, während Microsoft und 37 Forscher Anthropic vor Gericht unterstützen.

Anthropic hat am 9. März zwei Bundesgerichtsklagen gegen das Pentagon eingereicht. Der Grund: Die Einstufung als «Supply Chain Risk», weil das Unternehmen die uneingeschränkte militärische Nutzung von Claude ablehnte. Es ist die bisher grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung.
Anthropic riskiert Milliardenumsätze, weil es die militärische Nutzung von Claude einschränkt – und zieht dafür vor Gericht.