Anthropic hat einen Compute-Deal mit SpaceX über die volle Kapazität des Colossus-1-Datacenters in Memphis verkündet: 300 Megawatt, über 220'000 NVIDIA-GPUs. Parallel verdoppeln sich die 5h-Limits in Claude Code, die Peak-Hour-Drosselung fällt weg, und API-Limits für Opus steigen massiv. Im Vertrag versteckt: Interesse an orbitaler Compute-Kapazität.

Mehr Compute, weniger Limits, härteres Statement im Compute-Wettrüsten – und Musks SpaceX als unerwarteter Lieferant.
Anthropic hat am 6. Mai einen ungewöhnlichen Compute-Deal verkündet: Die volle Kapazität von SpaceX' Colossus-1-Rechenzentrum in Memphis, Tennessee, geht an Claude. Über 300 Megawatt, mehr als 220'000 NVIDIA-GPUs (H100, H200 und die neuen GB200) – schaltbar «innerhalb des Monats». Im selben Atemzug verdoppelt Anthropic die Limits für Claude Code, kappt die Peak-Hour-Drosselung und schraubt die API-Limits für Opus massiv hoch. Im Kleingedruckten: ein Memorandum für mehrere Gigawatt orbitaler KI-Compute – Rechenzentren im Erdorbit.
Drei sofort wirksame Änderungen, alle in einem Atemzug verkündet:
Wer in den letzten Monaten regelmässig in der Mittagszeit (UTC) das berühmte «du erreichst dein Limit in 4 Stunden» gesehen hat, sollte das jetzt deutlich seltener spüren.
| Komponente | Detail |
|---|---|
| Datacenter | Colossus 1, Memphis (Tennessee) |
| Kapazität | >300 MW, >220'000 NVIDIA-GPUs |
| GPU-Mix | H100, H200, GB200 |
| Online | innerhalb von 30 Tagen |
| Vertragsbasis | Vollkapazität |
Die DataCenterDynamics-Reporter weisen darauf hin, dass Colossus 1 ursprünglich von xAI – Elon Musks Schwesterfirma – aufgebaut wurde und der Vertrag faktisch ein SpaceX-xAI-Konstrukt ist. xAI hat parallel auf seiner Newsseite eine eigene Pressemitteilung publiziert.
Der SpaceX-Deal ist nicht der erste Compute-Pakt der letzten Monate – er ist der vierte Schwergewichtige in Folge:
Anthropic trainiert und betreibt Claude bereits auf einem Hardware-Mix aus AWS Trainium, Google TPUs und NVIDIA-GPUs. Mit Colossus 1 kommt ein massiver Inferenz-Layer dazu – die Beschreibung «verbessert direkt die Kapazität für Claude Pro und Claude Max» klingt mehr nach Burst-Pool für die Endnutzer als nach Trainings-Cluster.
Im Pressetext steht der entscheidende Satz: Anthropic hat ein Memorandum mit SpaceX zur Entwicklung von «mehreren Gigawatt orbitaler KI-Compute-Kapazität» abgeschlossen. Das wäre der erste konkrete Schritt zu Datacenters im Erdorbit – Solarzellen ohne Nachtlücke, Vakuum statt aktive Kühlung, kein Konflikt mit kommunalen Stromnetzen.
Die technischen Hürden sind real und unbarmherzig: Startkosten pro Kilowatt, Strahlungshärtung, Wärmeabfuhr ohne Atmosphäre, Wartungsfreiheit über Jahre, Latenz zur Erde. SpaceX ist mit Starship und Starlink V3 die einzige Firma, bei der das Konzept zumindest physikalisch verbindbar ist.
Direkt spürbar wird der Deal für Schweizer Claude-Pro- und -Max-Abonnent:innen schon ab dieser Woche – die schon länger frustrierende Limit-Erfahrung im Coding-Workflow sollte sich entspannen. Für Schweizer Banken, Versicherer und Pharmaunternehmen ist relevant, dass Anthropic gleichzeitig ankündigt, regulierte Branchen mit In-Region-Inferenz in Asien und Europa zu bedienen – ob das eine Schweizer Region (oder zumindest einen EU-Standort mit FINMA-tauglicher AVV-Konstellation) bedeutet, ist offen, aber die Trajektorie zeigt klar in diese Richtung. Wer aktuell in Zürich oder Genf entscheidet, ob Claude in Compliance-kritischen Workflows verwendet werden darf, hat damit ein Argument mehr.
Indirekt für die Schweiz interessant: Anthropic verspricht im selben Text, stromnetzbedingte Strompreissteigerungen für US-Konsumenten zu kompensieren, die durch die eigenen Datacenter entstehen, und prüft eine Ausweitung dieses Versprechens auf neue Jurisdiktionen. Im hyper-effizienten Schweizer Strommarkt ist das (noch) kein dringliches Thema – aber der Massstab solcher Statements verschiebt sich gerade.
Die nächsten 12 Monate werden für Anthropic die Frage entscheiden: Wie schnell konvertiert sich Compute-Kapazität in echtes Modell-Wachstum? Mit GPU-Verträgen über 50+ Gigawatt liegt das Lab inzwischen ungefähr auf OpenAI-Niveau, aber die Burst-Inferenz-Kapazität via Colossus 1 ist eine kurzfristige Atempause für Endnutzer, die produktiv mit Claude arbeiten. Die orbitale Compute-Erwähnung ist dagegen Frühaktien: ein Marker für die Phase nach der nächsten – wenn terrestrische Stromnetze und Gemeindewiderstand zum harten Limit werden. Für die Branche ist die Pointe ohnehin schwerer zu verdauen: Musks SpaceX vermietet Anthropic Compute, während OpenAI gerade sein eigenes 10-Mrd.-PE-Vehikel mit TPG und Bain Capital aufbaut. Die Allianzen werden enger und seltsamer.
Mehr Compute, weniger Limits, härteres Statement im Compute-Wettrüsten – und Musks SpaceX als unerwarteter Lieferant.

OpenAI startet B2B Signals: Frontier-Firmen verbrauchen 3,5-mal mehr KI-Intelligenz pro Mitarbeitenden als typische Unternehmen – und schicken 16-mal mehr Codex-Nachrichten. Der Vorsprung wächst, und OpenAI liefert ab sofort quartalsweise neue Zahlen.
Die Lücke zwischen Spitzenfirmen und dem Mittelfeld wächst – wer KI nur als Chat-Assistenz nutzt, fällt zurück; wer Agenten produktiv einsetzt, zieht davon.

Anthropic verpflichtet sich gegenüber Google Cloud zu Ausgaben von 200 Milliarden Dollar über fünf Jahre – plus 40 Milliarden Direktinvestment von Alphabet. Die grösste Cloud-Verpflichtung, die je publik wurde.
Anthropic verpflichtet sich zu 200 Mrd. Dollar Ausgaben bei Google Cloud über 5 Jahre – die grösste Cloud-Verpflichtung der KI-Geschichte.

Das Miami-Startup Subquadratic ist mit einer 29-Mio.-Dollar-Seed-Runde gestartet und stellt SubQ 1M-Preview vor – ein Sprachmodell mit 12 Mio. Token Kontext und einer neuen Aufmerksamkeits-Architektur (SSA), die Compute linear statt quadratisch skaliert. CEO ist Justin Dangel, CTO Alex Whedon (Ex-Meta).
Wenn die Sparse-Attention-Architektur unabhängig verifiziert wird, ist das der grösste Architektur-Sprung seit dem Transformer – aber bisher fehlen Weights, Peer-Review und API-Pricing.