Sechs Wochen nach GPT-5.4 legt OpenAI nach: GPT-5.5 soll das smarteste Modell des Unternehmens sein – mit doppeltem API-Preis, aber deutlich höherer Token-Effizienz.

OpenAIs GPT-5.5 «Spud» ist schneller und token-effizienter als sein Vorgänger, verdoppelt aber den API-Preis – sechs Wochen nach GPT-5.4 ein Signal, dass das KI-Wettrüsten keine Pause kennt.
Am 23. April hat OpenAI GPT-5.5 veröffentlicht – intern unter dem Codenamen «Spud» entwickelt und wochenlang das am meisten diskutierte Modell auf Prediction Markets. Polymarket hatte die Wahrscheinlichkeit eines April-Releases zwischenzeitlich bei 78 Prozent gesehen, dann auf 45 Prozent gesenkt – und lag am Ende richtig mit dem Monat.
OpenAI nennt es sein «smartestes und intuitivstes Modell». Greg Brockman spricht von einem «echten Schritt in Richtung der Art von Computing, die wir für die Zukunft erwarten». Verfügbar ist GPT-5.5 ab sofort für Plus-, Pro-, Business- und Enterprise-Nutzer in ChatGPT und Codex. Der API-Zugang folgt in Kürze.
Der Kern des Upgrades: GPT-5.5 ist laut OpenAI schneller und schärfer bei weniger Token-Verbrauch als GPT-5.4. Das Modell versteht Aufgaben schneller, plant mehrstufige Workflows eigenständiger und braucht weniger Nachfragen. Besonders stark sind die Verbesserungen in vier Bereichen: agentisches Coding, Computer Use, Wissensarbeit und wissenschaftliche Forschung. OpenAI sieht Potenzial bei der Wirkstoffentwicklung und der Unterstützung von Forschern.
Drei Varianten stehen bereit: Das Standard-Modell, eine Thinking-Variante für komplexere Aufgaben mit schnelleren, präziseren Antworten, und GPT-5.5 Pro für Pro-, Business- und Enterprise-Kunden mit zusätzlichen Qualitäts- und Latenzverbesserungen.
Die API-Preise verdoppeln sich gegenüber GPT-5.4: GPT-5.5 kostet $5 pro Million Input-Tokens (GPT-5.4: $2.50) und $30 pro Million Output-Tokens (GPT-5.4: $15). Cached Input bleibt günstig bei $0.50 pro Million. OpenAI argumentiert, dass die höhere Token-Effizienz den Preisanstieg kompensiert – gleiche Aufgabe, weniger Tokens, ähnliche Gesamtkosten.
In Codex bringt GPT-5.5 ein erweitertes 400K-Kontext-Fenster und erstmals Browser-Zugriff: Der Coding-Agent kann nun Web-Apps bedienen, Seiten navigieren und Screenshots iterieren. Verfügbar für Plus, Pro, Business, Enterprise, Edu und Go-Pläne.
OpenAI betont die stärksten Sicherheitsmassnahmen bisher: Über 200 Early-Access-Partner haben das Modell vor dem Release getestet. Die Benchmarks zeigen laut Berichten eine 60 Prozent geringere Halluzinationsrate als der Vorgänger und Coding-Fähigkeiten auf dem Niveau erfahrener Ingenieure – mit einem MMLU-Score von 92,4 Prozent und 88,7 Prozent auf SWE-bench.
GPT-5.5 ist für Schweizer ChatGPT-Nutzer mit Plus- oder Pro-Abo ab sofort verfügbar. Für Schweizer Unternehmen mit Enterprise-Plänen steht auch GPT-5.5 Pro bereit. OpenAIs Büro in Zürich arbeitet an Sicherheitsforschung und Modell-Evaluation – die verstärkten Cybersecurity-Guardrails vor dem API-Launch dürften von dieser Arbeit profitieren. Der verdoppelte API-Preis ist relevant für Schweizer Startups, die auf OpenAI-Modelle bauen.

Zwei Tage, zwei Meilensteine: DeepSeek liefert das grösste Open-Weights-Modell der Geschichte, Alibabas Qwen3.6 schlägt mit 27 Milliarden Parametern ein 15-mal grösseres Modell beim Coding.
DeepSeek V4-Pro ist mit 1,6 Billionen Parametern das grösste Open-Weights-Modell der Geschichte, während Qwen3.6-27B beweist, dass ein kompaktes Modell auf einer einzelnen GPU Flagship-Coding-Performance liefern kann – der Druck auf proprietäre Labs war nie grösser.

AMD-Ingenieurin analysiert 6.852 Claude-Code-Sessions und dokumentiert einen massiven Rückgang der Denktiefe. Anthropic bestätigt zwei Produktänderungen – bestreitet aber gezieltes «Nerfing».
Anthropic bestätigt, dass zwei Produktänderungen die Denktiefe von Claude reduzierten – bestreitet aber gezieltes Nerfing. Eine AMD-Ingenieurin belegt den Leistungseinbruch mit 6.852 analysierten Sessions.

Anthropic hat am 16. April sein neues Flaggschiff-Modell vorgestellt. Claude Opus 4.7 übertrifft GPT-5.4 und Gemini 3.1 Pro in den wichtigsten Coding-Benchmarks – und bringt Features mit, die den Alltag von Entwicklern verändern dürften.
Claude Opus 4.7 setzt mit 87,6 Prozent auf SWE-bench Verified einen neuen Bestwert und überholt GPT-5.4 und Gemini 3.1 Pro – für Entwickler der bisher grösste Sprung zwischen zwei Claude-Generationen.