Turing-Preisträger Yann LeCun argumentiert in einem neuen Paper, dass AGI ein fehlerhaftes Konzept ist. Sein Gegenvorschlag: «Superhuman Adaptable Intelligence» – KI, die nicht alles kann, aber alles lernen kann.

LeCun schlägt vor, AGI durch «Superhuman Adaptable Intelligence» zu ersetzen – KI soll nicht generell, sondern anpassungsfähig und spezialisiert übermenschlich sein.
Vergiss AGI. Zumindest wenn es nach Yann LeCun geht. Der Turing-Preisträger und frischgebackene Gründer von AMI Labs hat ein Paper vorgelegt, das einen der meistverwendeten Begriffe der KI-Branche für untauglich erklärt – und durch einen neuen ersetzen will.
LeCun hat Ende 2025 nach zwölf Jahren Meta verlassen und mit AMI Labs (Advanced Machine Intelligence) ein eigenes Forschungs-Startup gegründet – mit einer kolportierten Bewertung von 3,5 Milliarden Dollar, noch bevor ein Produkt existiert. Sein Ziel: Weltmodelle bauen, also KI-Systeme, die Physik verstehen und vorausschauend planen können, statt einfach das nächste Wort vorherzusagen.
In seinem Paper «AI Must Embrace Specialization via Superhuman Adaptable Intelligence» (gemeinsam mit Forschern der Columbia University, NYU und Distyl) nimmt er sich nun den AGI-Begriff vor.
Sein Kernargument: Menschliche Intelligenz ist gar nicht «generell» – sie ist hochspezialisiert durch die Evolution. Wir merken es nur nicht, weil wir unsere blinden Flecken nicht sehen können. Deshalb sei auch das Ziel einer «allgemeinen» künstlichen Intelligenz grundsätzlich fehlgeleitet.
LeCuns Alternative heisst SAI – Superhuman Adaptable Intelligence. Die Definition: KI, die lernen kann, Menschen bei jeder wichtigen Aufgabe zu übertreffen – und die Lücken füllt, wo menschliche Fähigkeiten versagen. Der entscheidende Massstab sei nicht eine Checkliste von Fähigkeiten, sondern wie schnell sich ein System an neue Aufgaben anpassen kann.
Technisch setzt LeCun auf selbstüberwachtes Lernen (Self-Supervised Learning) und sogenannte JEPAs – Joint-Embedding Predictive Architectures. Diese Modelle sagen nicht einzelne Wörter oder Pixel voraus, sondern lernen abstrakte Repräsentationen der Welt. Autoregressive Sprachmodelle im GPT-Stil bezeichnet er dagegen als Sackgasse: Deren Fehler würden sich mit zunehmender Vorhersagelänge exponentiell verstärken.
Besonders deutlich wird LeCun bei der Kritik an der aktuellen Forschungslandschaft: Die Monokultur rund um GPT-artige Architekturen bremse den Fortschritt.
«Homogeneity kills research.»
Das Paper spaltet die KI-Community. Für die einen liefert LeCun einen überfälligen Realitätscheck – AGI war immer ein schwammiger Begriff, der mehr Versprechen als Substanz enthielt. Für die anderen ist SAI vor allem ein geschicktes Rebranding, das zu LeCuns eigenem Forschungsprogramm bei AMI Labs passt.
Klar ist: Die Debatte darüber, was KI-Forschung eigentlich erreichen soll, wird 2026 mit neuer Schärfe geführt. Und LeCun hat mit einem 3,5-Milliarden-Dollar-Startup im Rücken durchaus das Gewicht, sie zu prägen.
LeCun schlägt vor, AGI durch «Superhuman Adaptable Intelligence» zu ersetzen – KI soll nicht generell, sondern anpassungsfähig und spezialisiert übermenschlich sein.

CCP Games heisst seit dem 6. Mai 2026 Fenris Creations, ist unabhängig von Pearl Abyss – und hat Google DeepMind als Minderheits-Investor. Das KI-Labor will mit Eve Online Long-Horizon-Planning, Memory und Continual Learning trainieren.
DeepMind macht aus 22 Jahren MMO-Wirtschaft eine Trainingsumgebung für Agenten, die langfristig planen, sich erinnern und kontinuierlich lernen.

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.
Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Das Miami-Startup Subquadratic ist mit einer 29-Mio.-Dollar-Seed-Runde gestartet und stellt SubQ 1M-Preview vor – ein Sprachmodell mit 12 Mio. Token Kontext und einer neuen Aufmerksamkeits-Architektur (SSA), die Compute linear statt quadratisch skaliert. CEO ist Justin Dangel, CTO Alex Whedon (Ex-Meta).
Wenn die Sparse-Attention-Architektur unabhängig verifiziert wird, ist das der grösste Architektur-Sprung seit dem Transformer – aber bisher fehlen Weights, Peer-Review und API-Pricing.