Eine Beobachter-Recherche von Otto Hostettler und Lukas Lippert deckt auf: Rund 100 ETH- und EPFL-Wissenschaftler warnten das Schweizer Parlament im Sommer 2025 vor «zu strengen» KI-Gesetzen. Ihre Hochschulen erhalten Millionen von Meta, Google und ByteDance.

Akademisches Lobbying gegen Schweizer KI-Regulierung kommt von Forschern, deren Hochschulen Millionen von genau jenen Konzernen erhalten, die zu regulieren sind. Eine Story, die Schweizer Politik und Forschungs-Community gleichermassen beschäftigt.
Eine Beobachter-Recherche von Otto Hostettler und Lukas Lippert vom 28. April deckt auf, dass fast 100 ETH- und EPFL-Wissenschaftler im Sommer 2025 das Schweizer Parlament vor «zu strengen» KI-Gesetzen warnten – während ihre Hochschulen Millionenbeträge von Meta, Google und ByteDance (TikTok) erhalten. Im Zentrum steht der Vorstoss von FDP-Ständerätin Petra Gössi für eine strengere KI-Regulierung.
In einer dem Beobachter vorliegenden E-Mail warnen die Forscher vor einer «zu strengen Schweizer Insellösung», die «über das Ziel hinausschiesst» und den «aktuellen Wettbewerbsvorteil der Schweiz» gefährde. Unterzeichner: rund 100 Forscher von ETH Zürich und EPFL.
FDP-Ständerätin Petra Gössi (SZ, ehemalige Parteipräsidentin) treibt den Vorstoss für strengere Schweizer KI-Regulierung voran. Im März 2026 hat der Ständerat zudem eine Motion für eine «souveräne KI-Infrastruktur» gutgeheissen – gegen den ursprünglichen Willen des Bundesrats. Beide Vorstösse kollidieren mit der Position der von Big Tech mitfinanzierten Forschungslandschaft.
Die Schweizer KI-Forschung ist international stark: ETH Rang 11, EPFL Rang 15 in QS Computer Science 2026. Sie ist aber stark mit US-Tech-Konzernen verflochten – Apple, Google und Meta haben Forschungslabs in Zürich und Lausanne. Parallel laufen das Projekt SNAI (Swiss National AI Institute) und das Open-Source-Modell Apertus (lanciert September 2025), die die Schweiz von US-Modellen unabhängiger machen sollen.
Für Schweizer KMU und Konzerne, die KI-Strategie machen, ist das ein Lehrstück über die Komplexität der Schweizer KI-Politik:
Hinweis: Der Beobachter-Artikel ist hinter Paywall. Die zentralen Aussagen sind gut belegt; konkrete Drittmittel-Summen finden sich im Original.
Akademisches Lobbying gegen Schweizer KI-Regulierung kommt von Forschern, deren Hochschulen Millionen von genau jenen Konzernen erhalten, die zu regulieren sind. Eine Story, die Schweizer Politik und Forschungs-Community gleichermassen beschäftigt.

Im Mai 2026 startet das Apertus-basierte Meditron-LLM in der Notaufnahme des CHUV (Lausanne). Der Bund finanziert das Projekt mit 20 Mio CHF bis 2028. Apertus selbst hat seit Launch im September 2025 die Marke von 1 Million Downloads überschritten – das Schweizer Open-Source-LLM beweist Substanz.
Mit dem CHUV-Pilot wird Apertus erstmals in einem klinisch kritischen Setting eingesetzt – ein Leuchtturm für regulierte Branchen, die KI nicht in die USA schicken können oder wollen.

Am 27. April hat die FINMA erstmals explizit vor Claude Mythos & Co. als systemisches Risiko für den Schweizer Finanzplatz gewarnt. Zeitgleich publiziert Swisscom den Cybersecurity Threat Radar 2026 mit «massiv verschärfter» Risiko-Einstufung autonomer KI-Agenten. Beide Berichte machen Mythos zur strategischen CH-Schwerpunkt-Story.
FINMA und Swisscom heben gleichzeitig den Risikolevel für KI-Agenten und Frontier-Modelle – Schweizer CISOs sollten Vendor-Risk-Management und Shadow-AI-Inventare diese Woche aktualisieren.

Am 25. April vereinbaren Hexagons Robotics-Sparte und Schaeffler die Skalierung des AEON-Humanoid-Programms auf mindestens 1'000 Roboter bis 2032. Sarcomere Dynamics liefert tags darauf eine 20-DoF-Roboterhand. Und der ETH-Spinoff ANYbotics bringt 2026 mit ANYmal X den ersten Ex-zertifizierten Vierbeiner.
Humanoide-Robotik konsolidiert sich von Demo-Videos zu echten Industrie-Verträgen – und der ETH-Spinoff ANYbotics hat mit ANYmal X eine Welt-Premiere im Programm.