Während die KI-Branche immer grössere Modelle baut, geht CERN den umgekehrten Weg: Ultrakompakte KI-Modelle, physisch in FPGAs eingebrannt, filtern die gewaltige Datenmenge des Large Hadron Collider in Echtzeit.

Nicht jedes Problem braucht ein 1-Billion-Parameter-Modell – manchmal reicht ein Entscheidungsbaum in Silizium, wenn man das Problem gut genug versteht.
Während die KI-Branche immer grössere Modelle baut, geht CERN den umgekehrten Weg: Ultrakompakte KI-Modelle, physisch in FPGAs eingebrannt, filtern die gewaltige Datenmenge des Large Hadron Collider in Echtzeit. Der Kontrast zum «Bigger is Better»-Trend könnte kaum grösser sein.
Der LHC erzeugt 40 Millionen Teilchenkollisionen pro Sekunde. Nur ein winziger Bruchteil – rund 0,02 % der Events – enthält physikalisch interessante Daten. Den Rest aussortieren? Dafür hat das System weniger als 50 Nanosekunden Zeit pro Entscheidung.
Die Lösung: Rund 1’000 FPGAs (Field-Programmable Gate Arrays) – spezialisierte Chips, in die KI-Modelle direkt als Hardware-Schaltkreise «eingebrannt» werden. Keine Software, keine GPU, kein Betriebssystem. Reine Silizium-Logik.
Das Open-Source-Tool HLS4ML (High-Level Synthesis for Machine Learning) macht das möglich. Es kompiliert Standard-ML-Modelle aus PyTorch oder TensorFlow in synthetisierbares C++, das direkt in FPGA-Firmware umgewandelt wird. Entwickelt wurde es von einer Kooperation zwischen Fermilab, CERN, MIT und weiteren Institutionen.
Bemerkenswert: Tree-based Models (Entscheidungsbäume) übertreffen bei CERNs Anwendungsfall Deep-Learning-Ansätze – bei einem Bruchteil der Kosten und Energieverbrauch.
Der Beitrag wurde am 3. April zum meistdiskutierten auf Hacker News (208+ Upvotes). Die Community-Debatte dreht sich um den Kontrast: Während Tech-Konzerne Milliarden in immer grössere Modelle stecken, beweist CERN, dass winzige, spezialisierte Modelle für bestimmte Aufgaben überlegen sind.
Für KI-Anwender die Lektion: Nicht jedes Problem braucht ein 1-Billion-Parameter-Modell. Manchmal reicht ein Entscheidungsbaum, der in Silizium läuft – wenn man das Problem gut genug versteht.

IBM und die ETH Zürich haben eine zehnjährige Forschungspartnerschaft angekündigt – für hybride Algorithmen an der Schnittstelle von KI und Quantencomputing. IBM finanziert neue Professuren an der ETH.
Während andere Länder auf Rechenleistung setzen, investiert die IBM-ETH-Partnerschaft in die mathematischen Grundlagen, die bestimmen, was mit dieser Rechenleistung überhaupt möglich ist.

Fields-Medaillenträger Terence Tao hat in seinem neusten Paper einen mathematischen Beweis von ChatGPT übernommen. Gleichzeitig veröffentlicht Donald Knuth ein Paper namens «Claude's Cycles». Zwei der grössten Mathematiker unserer Zeit – in derselben Woche von KI überzeugt.
Terence Tao und Donald Knuth – zwei der einflussreichsten Mathematiker – haben in derselben Woche ihre KI-Skepsis revidiert, basierend auf konkreten Ergebnissen.

Sakana AIs «AI Scientist» hat den Peer-Review-Prozess von Nature bestanden. Zum ersten Mal veröffentlicht das renommierteste Wissenschaftsjournal der Welt eine Studie über ein System, das eigenständig forscht – von der Idee bis zum fertigen Paper.
Sakana AIs AI Scientist hat den Nature-Peer-Review bestanden – und ein begleitendes Editorial fordert neue Regeln für KI-generierte Forschung.