Das D.C. Circuit hat Anthropics Eilantrag gegen die Pentagon-Sperrliste abgelehnt. Anthropic ist das erste US-Unternehmen auf einer Liste, die für ausländische Gegner reserviert ist.

Der wichtigste KI-Policy-Fall des Jahres wird definieren, ob KI-Firmen ethische Grenzen setzen dürfen, wenn Regierungen vollen Zugang verlangen.
Das D.C. Circuit Berufungsgericht hat Anthropics Eilantrag gegen die «Supply Chain Risk»-Einstufung durch das Pentagon abgelehnt. Damit bleibt Anthropic vorerst auf einer Liste, die normalerweise für ausländische Gegner wie Huawei oder ZTE reserviert ist – als erstes US-Unternehmen überhaupt.
Die Geschichte beginnt im Juli 2025 mit einem 200-Millionen-Dollar-Vertrag: Anthropic stellte Claude auf klassifizierten Pentagon-Netzwerken bereit, das Pentagon akzeptierte Anthropics Nutzungsrichtlinien. Zwei rote Linien setzte Anthropic: kein Einsatz für vollautonome Waffensysteme ohne menschliche Kontrolle, und keine Massenüberwachung von US-Bürgern.
Als das Pentagon diese Bedingungen neu verhandeln wollte, weigerte sich Anthropic. Verteidigungsminister Pete Hegseth eskalierte am 27. Februar 2026 öffentlich auf X: Das Verteidigungsministerium müsse «uneingeschränkten Zugang» zu Anthropics Modellen haben «für jeden LEGALEN Zweck». Er nannte Anthropics Haltung «eine Meisterklasse in Arroganz und Verrat».
Am 3. März folgte die offizielle Einstufung als Supply-Chain-Risiko – mit sofortiger Wirkung: Alle Rüstungsunternehmen mussten zertifizieren, dass sie Claude nicht für militärische Aufträge nutzen.
Die juristische Auseinandersetzung ist komplex. Richterin Rita Lin am kalifornischen Bundesgericht gab Anthropic am 26. März zunächst recht: Sie nannte die Einstufung «wahrscheinlich rechtswidrig und willkürlich» und sprach von einem «orwellschen Gedanken», ein amerikanisches Unternehmen als potenziellen Gegner zu brandmarken, weil es der Regierung widerspricht.
Doch am 8. April kippte das D.C. Circuit Berufungsgericht diese Einschätzung: «Das Gleichgewicht spricht zugunsten der Regierung» angesichts des aktiven militärischen Kontexts. Anthropics Einstufung bleibt in Kraft, während das beschleunigte Berufungsverfahren läuft.
Die mündliche Verhandlung ist für den 19. Mai 2026 angesetzt – sie dürfte eines der meistbeachteten Gerichtsverfahren im Tech-Bereich dieses Jahres werden.
Interne Pentagon-Dokumente, die im Verfahren öffentlich wurden, zeigen den Tonfall der Auseinandersetzung. Emil Michael, Staatssekretär für Forschung und Technik im Pentagon, bezeichnete Anthropics Sicherheitsbeschränkungen in einem Memo als «irrationale Hindernisse» für die militärische Wettbewerbsfähigkeit.
Die Konsequenz war unmittelbar: OpenAI sicherte sich den umstrittenen Pentagon-Vertrag, den Anthropic verloren hatte.
Die zentrale Frage lautet: Können KI-Unternehmen ethische Grenzen setzen, wenn eine Regierung den vollen Zugang verlangt? Das Urteil wird einen Präzedenzfall schaffen – nicht nur für die USA, sondern für jede Demokratie, die Frontier-KI militärisch nutzen will.
Für die Schweiz ist das indirekt relevant: Die Debatte um KI-Ethik und militärische Nutzung betrifft auch Schweizer Beschaffungsentscheide und die Positionierung des Landes in der internationalen KI-Governance. Wenn das mächtigste Militär der Welt ein Unternehmen auf eine Sperrliste setzt, weil es Sicherheitsgrenzen aufrechterhalten will, stellt sich die Frage: Welchen Spielraum haben KI-Firmen überhaupt noch?

Eine Woche nach Anthropics Project Glasswing schlägt OpenAI zurück: GPT-5.4-Cyber ist für defensive Cybersecurity entwickelt und nur für verifizierte Security-Profis zugänglich.
Das Wettrüsten um KI-gestützte Cyberverteidigung hat offiziell begonnen – mit direkten Folgen für Schweizer Infrastruktur.

Eine neue PwC-Studie mit 1'217 Führungskräften zeigt: 74 Prozent des KI-Werts fliessen an nur 20 Prozent der Unternehmen. Die Kluft zwischen Gewinnern und Verlierern wächst rasant.
Wer KI nur für Effizienzsteigerung nutzt, verliert – echter Wert entsteht durch Geschäftsmodell-Neuerfindung.

Bank of England, Fed und Bank of Canada briefen Grossbanken zu Claude Mythos. Erstmals wird ein KI-Modell offiziell als systemisches Finanzrisiko gewertet. Auch die Schweiz reagiert.
KI-Sicherheit ist nicht mehr IT-Thema, sondern systemisches Finanzrisiko – mit direkter Relevanz für FINMA und UBS.