OpenAI hat GPT-5.5 Instant ausgerollt: 52,5 % weniger Halluzinationen bei heiklen Themen und ein neues Memory-Sources-Feature, das endlich offenlegt, woran sich ChatGPT erinnert. Das Modell ist neuer Default in ChatGPT.

GPT-5.5 Instant ist der neue ChatGPT-Default mit 52,5 % weniger Halluzinationen und transparentem «Memory Sources»-Feature.
OpenAI hat am 5. Mai 2026 GPT-5.5 Instant ausgerollt – das neue Standardmodell für alle ChatGPT-Nutzer. Die wichtigsten Neuerungen: deutlich weniger erfundene Fakten und ein «Memory Sources»-Feature, das endlich offenlegt, woher die personalisierten Antworten kommen.
Bisher hiess der Default in ChatGPT GPT-5.3 Instant. Seit Dienstag wird er sukzessive durch GPT-5.5 Instant ersetzt – im Web, in der API als chat-latest und in Kürze auch mobil. Das Update kommt automatisch, du musst nichts umstellen.
Die zentrale Verbesserung: In OpenAIs internen Tests produziert GPT-5.5 Instant bei heiklen Prompts aus Medizin, Recht und Finanzen 52,5 Prozent weniger Halluzinationen als der Vorgänger. Bei Konversationen, die Nutzer als faktisch falsch markiert hatten, sank die Fehlerquote um 37,3 Prozent. Auch der Schreibstil wurde überarbeitet: kürzere Antworten, weniger Listen-Overload, weniger Emojis.
Das zweite grosse Update betrifft den Speicher. Mit «Memory Sources» zeigt ChatGPT bei personalisierten Antworten neu an, welcher Kontext genutzt wurde – frühere Chats, gespeicherte Notizen, hochgeladene Dateien oder verbundene Gmail-Inhalte. Falsche oder veraltete Einträge kannst du direkt korrigieren oder löschen.
Konkret heisst das: Wenn ChatGPT plötzlich weiss, dass du Vegetarier bist und Skifahren in Davos magst, kannst du nachvollziehen, woher diese Information stammt – und sie bei Bedarf wegnehmen. Die erweiterte Personalisierung über vergangene Chats, Dateien und Gmail rollt zuerst für Plus- und Pro-Abonnenten im Web aus, später für Free, Business und Enterprise.
Sicherheits-technisch ist GPT-5.5 Instant ein Novum: OpenAI klassifiziert es als erstes Instant-Modell mit «High Capability» in den Bereichen Cybersecurity und Biologie. Das heisst, das Modell kann theoretisch heikle Anfragen besser bedienen – und bekommt deshalb zusätzliche automatische Schutzmechanismen, die Hacking-Anleitungen oder bioterroristische Anwendungen blockieren sollen.
Für zahlende Nutzer bleibt GPT-5.3 Instant noch drei Monate über die Modellauswahl verfügbar, danach wird es abgeschaltet. Wer das alte Verhalten lieber hat, kann jetzt schon umstellen – aber muss in Zukunft umsteigen.
Wenn du ChatGPT regelmässig nutzt, wirst du den Unterschied wahrscheinlich vor allem in zwei Situationen merken: Bei Faktenfragen aus dem medizinischen oder juristischen Bereich werden weniger «sichere» falsche Antworten kommen – und wenn du das Gefühl hattest, ChatGPT erfinde Dinge über dich, kannst du die Quellen jetzt selbst kontrollieren.
OpenAI verspricht zudem, dass GPT-5.5 Instant «gleich warm und persönlich» bleibt wie bisher – nur eben präziser. Ob das in der Praxis hält, wirst du in den nächsten Wochen selbst beurteilen können.
GPT-5.5 Instant ist der neue ChatGPT-Default mit 52,5 % weniger Halluzinationen und transparentem «Memory Sources»-Feature.

OpenAI hat drei neue Voice-Modelle veröffentlicht: GPT-Realtime-2 mit GPT-5-Reasoning, GPT-Realtime-Translate für Live-Übersetzung in 70 Sprachen und GPT-Realtime-Whisper für Streaming-Transkription. Voice ist damit nicht mehr Demo-Feature, sondern operativer Bauklotz für Produkte.
Drei API-Endpunkte – Reasoning-Voice, Live-Translation und Streaming-Transkription – die das Voice-Modell zum echten Produkt-Bauklotz machen.

Anthropic hat einen Compute-Deal mit SpaceX über die volle Kapazität des Colossus-1-Datacenters in Memphis verkündet: 300 Megawatt, über 220'000 NVIDIA-GPUs. Parallel verdoppeln sich die 5h-Limits in Claude Code, die Peak-Hour-Drosselung fällt weg, und API-Limits für Opus steigen massiv. Im Vertrag versteckt: Interesse an orbitaler Compute-Kapazität.
Mehr Compute, weniger Limits, härteres Statement im Compute-Wettrüsten – und Musks SpaceX als unerwarteter Lieferant.

Das Miami-Startup Subquadratic ist mit einer 29-Mio.-Dollar-Seed-Runde gestartet und stellt SubQ 1M-Preview vor – ein Sprachmodell mit 12 Mio. Token Kontext und einer neuen Aufmerksamkeits-Architektur (SSA), die Compute linear statt quadratisch skaliert. CEO ist Justin Dangel, CTO Alex Whedon (Ex-Meta).
Wenn die Sparse-Attention-Architektur unabhängig verifiziert wird, ist das der grösste Architektur-Sprung seit dem Transformer – aber bisher fehlen Weights, Peer-Review und API-Pricing.