NVIDIA stellt zwei neue KI-Modell-Familien vor: Nemotron 3 Super für agentische Systeme mit fünfmal höherem Durchsatz und Alpamayo für autonomes Fahren. Beide sind Open Source.

NVIDIA setzt mit zwei Open-Source-Modell-Familien auf ein Ökosystem-Spiel — Nemotron für Agenten, Alpamayo für selbstfahrende Autos.
NVIDIA hat gleich zwei neue KI-Modell-Familien vorgestellt: Nemotron 3 Super für agentische KI-Systeme und Alpamayo für autonomes Fahren. Beide Launches fallen auf die Woche vor der GTC 2026 (17.–21. März) — NVIDIAs wichtigster Konferenz des Jahres.
Nemotron 3 Super ist ein 120-Milliarden-Parameter-Modell, von denen nur 12 Milliarden gleichzeitig aktiv sind — eine sogenannte Mixture-of-Experts-Architektur (vereinfacht: je nach Aufgabe werden spezialisierte Teile des Modells aktiviert, statt das ganze Netzwerk zu nutzen). Das Ergebnis: fünfmal höherer Durchsatz als der Vorgänger, doppelt so hohe Genauigkeit und ein Kontextfenster von einer Million Tokens.
Das Modell ist auf komplexe Agenten-Workflows ausgelegt — also Systeme, die eigenständig recherchieren, Code schreiben oder Finanzanalysen erstellen. Es ist als Open-Source-Modell unter einer offenen Lizenz auf Hugging Face, NVIDIA Build und mehreren Cloud-Plattformen verfügbar.
Die Alpamayo-Familie ist NVIDIAs Antwort auf eine zentrale Herausforderung des autonomen Fahrens: Wie bringt man einem Auto bei, unvorhergesehene Situationen zu meistern? Alpamayo 1, das Kernmodell mit 10 Milliarden Parametern, nutzt Chain-of-Thought-Reasoning — es «denkt» Schritt für Schritt durch komplexe Verkehrssituationen, ähnlich wie ein erfahrener Fahrer.
NVIDIA-CEO Jensen Huang nannte es «den ChatGPT-Moment für Physical AI». Zu den Partnern gehören Lucid, Nuro und Uber. Beide Modell-Familien sind Open Source — NVIDIA setzt damit klar auf ein Ökosystem-Spiel statt auf geschlossene Produkte.
NVIDIA setzt mit zwei Open-Source-Modell-Familien auf ein Ökosystem-Spiel — Nemotron für Agenten, Alpamayo für selbstfahrende Autos.

OpenAI hat drei neue Voice-Modelle veröffentlicht: GPT-Realtime-2 mit GPT-5-Reasoning, GPT-Realtime-Translate für Live-Übersetzung in 70 Sprachen und GPT-Realtime-Whisper für Streaming-Transkription. Voice ist damit nicht mehr Demo-Feature, sondern operativer Bauklotz für Produkte.
Drei API-Endpunkte – Reasoning-Voice, Live-Translation und Streaming-Transkription – die das Voice-Modell zum echten Produkt-Bauklotz machen.

Anthropic hat einen Compute-Deal mit SpaceX über die volle Kapazität des Colossus-1-Datacenters in Memphis verkündet: 300 Megawatt, über 220'000 NVIDIA-GPUs. Parallel verdoppeln sich die 5h-Limits in Claude Code, die Peak-Hour-Drosselung fällt weg, und API-Limits für Opus steigen massiv. Im Vertrag versteckt: Interesse an orbitaler Compute-Kapazität.
Mehr Compute, weniger Limits, härteres Statement im Compute-Wettrüsten – und Musks SpaceX als unerwarteter Lieferant.

OpenAI hat GPT-5.5 Instant ausgerollt: 52,5 % weniger Halluzinationen bei heiklen Themen und ein neues Memory-Sources-Feature, das endlich offenlegt, woran sich ChatGPT erinnert. Das Modell ist neuer Default in ChatGPT.
GPT-5.5 Instant ist der neue ChatGPT-Default mit 52,5 % weniger Halluzinationen und transparentem «Memory Sources»-Feature.