kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. KI-Forschung
  4. LeCun will AGI abschaffen – und hat einen besseren Begriff
KI-Forschung

LeCun will AGI abschaffen – und hat einen besseren Begriff

Turing-Preisträger Yann LeCun argumentiert in einem neuen Paper, dass AGI ein fehlerhaftes Konzept ist. Sein Gegenvorschlag: «Superhuman Adaptable Intelligence» – KI, die nicht alles kann, aber alles lernen kann.

Freitag, 6. März 2026~2 Min. Lesezeit
Illustration eines Whiteboards mit Forschungsdiagrammen und einer Lupe auf einem offenen Journal, kinewsletter.ch Stil
Illustration eines Whiteboards mit Forschungsdiagrammen und einer Lupe auf einem offenen Journal, kinewsletter.ch Stil
Das Wichtigste

LeCun schlägt vor, AGI durch «Superhuman Adaptable Intelligence» zu ersetzen – KI soll nicht generell, sondern anpassungsfähig und spezialisiert übermenschlich sein.

Vergiss AGI. Zumindest wenn es nach Yann LeCun geht. Der Turing-Preisträger und frischgebackene Gründer von AMI Labs hat ein Paper vorgelegt, das einen der meistverwendeten Begriffe der KI-Branche für untauglich erklärt – und durch einen neuen ersetzen will.

Vom Meta-Cheffforscher zum AGI-Kritiker

LeCun hat Ende 2025 nach zwölf Jahren Meta verlassen und mit AMI Labs (Advanced Machine Intelligence) ein eigenes Forschungs-Startup gegründet – mit einer kolportierten Bewertung von 3,5 Milliarden Dollar, noch bevor ein Produkt existiert. Sein Ziel: Weltmodelle bauen, also KI-Systeme, die Physik verstehen und vorausschauend planen können, statt einfach das nächste Wort vorherzusagen.

In seinem Paper «AI Must Embrace Specialization via Superhuman Adaptable Intelligence» (gemeinsam mit Forschern der Columbia University, NYU und Distyl) nimmt er sich nun den AGI-Begriff vor.

Anpassungsgeschwindigkeit statt Checkliste

Sein Kernargument: Menschliche Intelligenz ist gar nicht «generell» – sie ist hochspezialisiert durch die Evolution. Wir merken es nur nicht, weil wir unsere blinden Flecken nicht sehen können. Deshalb sei auch das Ziel einer «allgemeinen» künstlichen Intelligenz grundsätzlich fehlgeleitet.

LeCuns Alternative heisst SAI – Superhuman Adaptable Intelligence. Die Definition: KI, die lernen kann, Menschen bei jeder wichtigen Aufgabe zu übertreffen – und die Lücken füllt, wo menschliche Fähigkeiten versagen. Der entscheidende Massstab sei nicht eine Checkliste von Fähigkeiten, sondern wie schnell sich ein System an neue Aufgaben anpassen kann.

GPT-Architektur als «Sackgasse»

Technisch setzt LeCun auf selbstüberwachtes Lernen (Self-Supervised Learning) und sogenannte JEPAs – Joint-Embedding Predictive Architectures. Diese Modelle sagen nicht einzelne Wörter oder Pixel voraus, sondern lernen abstrakte Repräsentationen der Welt. Autoregressive Sprachmodelle im GPT-Stil bezeichnet er dagegen als Sackgasse: Deren Fehler würden sich mit zunehmender Vorhersagelänge exponentiell verstärken.

Besonders deutlich wird LeCun bei der Kritik an der aktuellen Forschungslandschaft: Die Monokultur rund um GPT-artige Architekturen bremse den Fortschritt.

«Homogeneity kills research.»

Debatte mit Sprengkraft

Das Paper spaltet die KI-Community. Für die einen liefert LeCun einen überfälligen Realitätscheck – AGI war immer ein schwammiger Begriff, der mehr Versprechen als Substanz enthielt. Für die anderen ist SAI vor allem ein geschicktes Rebranding, das zu LeCuns eigenem Forschungsprogramm bei AMI Labs passt.

Klar ist: Die Debatte darüber, was KI-Forschung eigentlich erreichen soll, wird 2026 mit neuer Schärfe geführt. Und LeCun hat mit einem 3,5-Milliarden-Dollar-Startup im Rücken durchaus das Gewicht, sie zu prägen.

Teilen:

Das könnte dich auch interessieren

Handgezeichnete Skizze: GPU-Chip mit Rakete und Benchmark-Diagramm – NVIDIA Nemotron 3 Super und Alpamayo
Handgezeichnete Skizze: GPU-Chip mit Rakete und Benchmark-Diagramm – NVIDIA Nemotron 3 Super und Alpamayo
Neue Modelle
12. März 2026

NVIDIA lanciert Nemotron 3 Super und Alpamayo vor der GTC

NVIDIA stellt zwei neue KI-Modell-Familien vor: Nemotron 3 Super für agentische Systeme mit fünfmal höherem Durchsatz und Alpamayo für autonomes Fahren. Beide sind Open Source.

NVIDIA setzt mit zwei Open-Source-Modell-Familien auf ein Ökosystem-Spiel — Nemotron für Agenten, Alpamayo für selbstfahrende Autos.

Weiterlesen
Illustration von Champagnergläsern, Füllfeder und Geldstapel vor einem Fenster mit Eiffelturm – kinewsletter.ch Stil
Illustration von Champagnergläsern, Füllfeder und Geldstapel vor einem Fenster mit Eiffelturm – kinewsletter.ch Stil
KI-Business
11. März 2026

Yann LeCuns AMI Labs holt 1,03 Milliarden – die grösste Seed-Runde Europas

Turing-Preisträger Yann LeCun hat mit seinem neuen Startup AMI Labs über eine Milliarde Dollar eingesammelt – die grösste Seed-Runde eines europäischen Unternehmens. AMI Labs entwickelt «Weltmodelle», die physische Realität verstehen statt nur Text vorherzusagen.

Mit 1,03 Milliarden Dollar in einer Seed-Runde beweist AMI Labs, dass Investoren wie Nvidia und Bezos bereit sind, auf KI-Ansätze jenseits von Sprachmodellen zu setzen – und Europa als Standort ernst nehmen.

Weiterlesen
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Regulierung & Ethik
9. März 2026

Ist Claude bewusst? Anthropic weiss es selbst nicht

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.

Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.

Weiterlesen