kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Anthropic sagt Nein zum Pentagon – und Trump dreht den Spiess um
Regulierung & Ethik

Anthropic sagt Nein zum Pentagon – und Trump dreht den Spiess um

Anthropic weigert sich, dem Pentagon uneingeschränkten Zugang zu Claude zu geben. Trump verhängt ein Bundesverbot. Stunden später schliesst OpenAI einen Deal mit dem Militär – mit denselben Bedingungen, die Anthropic gefordert hatte.

Montag, 2. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration einer Waage der Gerechtigkeit neben einem Militärhelm und einem Computerchip – symbolisiert den Konflikt zwischen KI-Sicherheit und militärischen Forderungen
Illustration einer Waage der Gerechtigkeit neben einem Militärhelm und einem Computerchip – symbolisiert den Konflikt zwischen KI-Sicherheit und militärischen Forderungen
Das Wichtigste

Die grösste KI-Politik-Krise 2026 zeigt: Wer bei KI-Sicherheit Rückgrat zeigt, riskiert politische Vergeltung – wird aber von den Nutzern belohnt.

Anthropic sagt Nein zum Pentagon – und Trump dreht den Spiess um

Es ist die grösste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung – und sie hat sich innert weniger Tage zur handfesten Krise entwickelt. Anthropic, das Unternehmen hinter Claude, hat sich geweigert, dem Pentagon uneingeschränkten Zugang zu seiner KI zu gewähren. Die Antwort der Trump-Administration: ein Bundesverbot. Und dann, am selben Abend, eine Pointe, die kaum jemand kommen sah.

Zwei rote Linien, die Anthropic nicht überschreiten will

Die Geschichte beginnt am 25. Februar: Verteidigungsminister Pete Hegseth fordert von Anthropic, alle Nutzungseinschränkungen für Claude aufzuheben – das Militär soll das Modell für sämtliche legalen Zwecke nutzen können, ohne Guardrails.

Anthropic-CEO Dario Amodei lehnt ab. In einem öffentlichen Statement benennt er zwei klare rote Linien: Erstens keine vollautonomen Waffen – weil heutige KI-Systeme schlicht nicht zuverlässig genug seien, um ohne menschliche Kontrolle über Leben und Tod zu entscheiden. Zweitens keine Massenüberwachung von US-Bürgerinnen und -Bürgern – weil leistungsstarke KI verstreute Daten automatisch zu einem umfassenden Profil zusammenfügen könnte.

Wichtig: Anthropic arbeitet bereits mit dem Pentagon zusammen. Claude läuft in klassifizierten Netzwerken, unterstützt Geheimdienst-Analysen und Cyberoperationen. Das Unternehmen betont, dass die beiden Einschränkungen bisher keinen einzigen Einsatz verhindert hätten.

Bundesverbot und «Supply Chain Risk» – Werkzeuge aus dem Kalten Krieg

Am 27. Februar eskaliert die Situation: Trump ordnet an, dass Bundesbehörden innerhalb von sechs Monaten alle Anthropic-Produkte ersetzen müssen. Hegseth geht noch weiter – er stuft Anthropic als «Supply Chain Risk» ein, eine Bezeichnung, die normalerweise Firmen mit Verbindungen zu feindlichen Staaten vorbehalten ist. Damit dürfen Pentagon-Auftragnehmer nicht mehr mit Anthropic zusammenarbeiten.

Anthropic nennt die Massnahme «beispiellos» und kündigt rechtliche Schritte an. Die Argumentation: Gemäss geltendem Recht (10 USC 3252) könne die Bezeichnung nur den Einsatz in Pentagon-Verträgen einschränken – nicht das kommerzielle Geschäft.

OpenAIs Pentagon-Deal: gleiche Bedingungen, anderer Ausgang

Hier wird es richtig interessant. Nur Stunden nach dem Anthropic-Bann verkündet OpenAI-CEO Sam Altman einen eigenen Pentagon-Deal. OpenAIs Modelle werden in klassifizierten Militärsystemen eingesetzt – mit Guardrails, die verdächtig nach Anthropics Position klingen.

Altman nennt konkret zwei Bedingungen: keine Massenüberwachung im Inland und menschliche Verantwortung beim Einsatz von Gewalt, einschliesslich autonomer Waffensysteme. Also exakt die Punkte, die Anthropic als rote Linien definiert hatte.

Die Frage, die sich aufdrängt: Wenn das Pentagon mit OpenAI dieselben Bedingungen akzeptiert, die es bei Anthropic als inakzeptabel bezeichnet hatte – war das Bundesverbot dann wirklich eine Frage der nationalen Sicherheit?

Claude auf Platz 1 – Nutzer stimmen mit dem Download ab

Die Nutzer-Reaktion auf das Drama kam schnell und deutlich: Am Wochenende kletterte Claude auf Platz 1 der meistgeladenen Produktivitäts-Apps im Apple App Store – und überholte damit ChatGPT. Viele Nutzer wechselten offenbar aus Protest gegen OpenAIs Militär-Kooperation zu Anthropic.

Für Anthropic ein bitterer Trost: Politisch unter Druck, aber kommerziell gestärkt.

Was das für die Schweizer KI-Debatte heisst

Der Fall zeigt, wie schnell KI-Politik eskalieren kann – und wie dünn die Grenze zwischen Sicherheitsbedenken und politischer Vergeltung sein kann. Für die Schweiz, die bis Ende 2026 eine eigene KI-Regulierung in die Vernehmlassung schicken will, liefert dieser Konflikt wichtiges Anschauungsmaterial.

Konkret für dich: Wenn du Claude beruflich oder privat nutzt, ändert sich vorerst nichts. Anthropic betont, dass das Bundesverbot nur Pentagon-Verträge betrifft. Kommerzielle und private Nutzung bleiben uneingeschränkt. Und falls du noch ein Argument brauchst, Anthropic auszuprobieren – im App Store findest du Claude gerade ganz oben.

Fazit

Die grösste KI-Politik-Krise 2026 zeigt: Wer bei KI-Sicherheit Rückgrat zeigt, riskiert politische Vergeltung – wird aber von den Nutzern belohnt.

Quellen

  • Anthropic: Statement from Dario Amodei(wird in neuem Tab geöffnet)
  • Anthropic: Statement on Hegseth's comments(wird in neuem Tab geöffnet)
  • CNN: OpenAI strikes Pentagon deal(wird in neuem Tab geöffnet)
  • Washington Post: Anthropic rejects Pentagon demand(wird in neuem Tab geöffnet)
  • Reason: Anthropic CEO refuses Pentagon demands(wird in neuem Tab geöffnet)
  • NPR: OpenAI announces Pentagon deal after Trump bans Anthropic(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

«Moment of Danger»: Anthropic-CEO warnt vor 12-Monats-Fenster, in dem KI Software auseinandernimmt

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.

Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Weiterlesen
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

Google, Microsoft und xAI lassen US-Behörde ihre Modelle prüfen – freiwillig

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.

Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Weiterlesen
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
KI-Business
5. Mai 2026

Anthropic gegen OpenAI: Beide Labs zünden am selben Tag ein PE-Vehikel für Enterprise-KI

Anthropic und OpenAI haben am selben Tag konkurrierende Enterprise-Vehikel mit Wall Street verkündet. Anthropic baut mit Blackstone, Goldman und Hellman & Friedman eine 1,5-Mrd.-Firma; OpenAI startet mit TPG, Bain und SoftBank «The Deployment Company» mit 10 Mrd. Bewertung – und garantiert Investoren 17,5% Rendite pro Jahr.

Beide Labs schalten die KI-Beratungsindustrie aus und verkaufen ein Stück ihrer Enterprise-Marge an Private-Equity-Häuser, um direkten Zugang zu deren Portfolio-Firmen zu bekommen.

Weiterlesen