kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. KI-Business
  4. Sam Altmans grosse Agenda und der Zerfall des Vertrauens
KI-Business

Sam Altmans grosse Agenda und der Zerfall des Vertrauens

OpenAI präsentiert eine 13-seitige Industrial Policy – doch parallel zerlegt eine New-Yorker-Untersuchung die Glaubwürdigkeit ihres Gründers.

Donnerstag, 9. April 2026~4 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
OpenAI Sam Altman Policy
OpenAI Sam Altman Policy
Das Wichtigste

Während OpenAI mit kühnen Vorschlägen für eine KI-Neuordnung wirbt, zeigen interne Dokumente ein Bild von Lügen und Vertrauensbruch.

Zwei Entwicklungen haben die KI-Branche innerhalb von 24 Stunden erschüttert. Am 6. April veröffentlichte OpenAI ein 13-seitiges Policy-Dokument mit dem Titel "Industrial Policy for the Intelligence Age" – eine Agenda mit 20 konkreten Vorschlägen zur Umgestaltung der Gesellschaft im KI-Zeitalter. Tags darauf, am 7. April, publizierten die New-Yorker-Journalisten Ronan Farrow und Andrew Marantz eine Untersuchung, die das Vertrauen in den Mann hinter OpenAI grundlegend beschädigt. Sie dokumentierten mit 100+ Interviews und bisher unveröffentlichten internen Dokumenten ein Muster systematischer Lügen durch Sam Altman.

Was als Triumph für OpenAI hätte sein können – eine Neuordnung der globalen Wirtschaft nach Altmans Vorstellungen – wirkt nun wie eine Nebelkerze über tiefer reichenden Problemen bei der Führungskultur eines der einflussreichsten Unternehmen der Welt.

Altmans 20-Punkte-Plan: Mutig oder Ablenkung?

Altman bewirbt seine Policy-Initiative als "New Deal für das KI-Zeitalter". Der Vergleich zu Franklin Roosevelts wirtschaftlichen Reformen ist bewusst gewählt – es geht um nichts weniger als eine grundlegende Umverteilung von Vermögen und Arbeit.

Die konkreten Vorschläge sind beeindruckend in ihrer Reichweite: Ein Public Wealth Fund, der Bürgern automatisch Anteile an KI-Unternehmen übertragen soll. Ein Roboter-Steuern-Modell. Ein Pilotprojekt für eine 32-Stunden-Woche bei vollem Gehalt. "Containment Playbooks" für potenziell eigenständig agierende KI-Systeme. OpenAI kündigt zudem eine Workshop-Serie in Washington D.C. an und stellt Forschern 100'000 Dollar Zuschüsse sowie 1 Million Dollar API-Kredite zur Verfügung.

Doch die Reaktion auf dem Markt war kühl. Encode AI bezeichnete viele Vorschläge als "nicht neu", Fortune mutmasste, dass OpenAI damit einen "Deckmantel für regulatorischen Nihilismus" schaffe – also Vorschläge mache, die radikal klingen, aber den Kern vermeiden: echte Kontrolle und Transparenz bei der Entwicklung superintelligenter Systeme.

Die 70 Seiten Ilya Sutskever

Nur wenige Stunden nach der Veröffentlichung der Policy-Initiative brach die Hölle los. Farrow und Marantz hatten Zugang zu einem Schriftstück, das die Risse in OpenAIs Führungsetage enthüllt wie kaum etwas zuvor: 70 Seiten Slack-Nachrichten von Ilya Sutskever, dem legendären KI-Sicherheitsforscher, der Anfang 2024 OpenAI verlassen hatte – mit der Begründung, die Sicherheit der Systeme sei vernachlässigt worden.

Diese Nachrichten, auch "Ilya Memos" genannt, waren als ephemere Nachrichten verschickt worden, weil Sutskever nach eigenem Bekunden "terrified" war. Der erste Punkt seiner Analyse war prägnant: "Sam exhibits a consistent pattern of… Lying." (Sam zeigt ein konsistentes Muster von… Lügen.)

Dario Amodei, CEO von Anthropic und ehemaliger VP of Research bei OpenAI, hatte seine eigenen Notizen mitgebracht: über 200 Seiten Material, das sich über Monate hinzog. Der zentrale Befund: "The problem with OpenAI is Sam himself." (Das Problem mit OpenAI ist Sam selbst.)

Das Material wird nicht abstrakter. Amodei entdeckte, dass Microsoft durch eine Klausel namens "Merge-and-Assist" ein faktisches Vetorecht über OpenAIs Operationen besass – ein Deal, den Altman gegenüber dem Board leugnete, bis Amodei die entsprechende Passage aus dem Vertrag vorlas.

Versprechen und Realität

Die New-Yorker-Untersuchung zeigt, dass Altman nicht nur Aussagen tätigte, die später widerrufen werden mussten – er konstruierte auch systematisch Realitäten neu, wenn sie seinen Narrativen nicht entsprachen.

Das sichtbarste Beispiel: OpenAI hatte der Öffentlichkeit versprochen, dass das Superalignment-Team – die interne Safety-Abteilung – 20 Prozent der Compute-Ressourcen des Unternehmens erhalten würde. Die Realität? Sie bekamen 1–2 Prozent – und diese auf dem ältesten Cluster mit den schlechtesten GPUs. Das ist nicht nur ein Budgetfehler. Es ist ein Beweis für die Prioritäten des Unternehmens, verpackt in eine Lüge.

Paul Graham, Gründer von Y Combinator und eine der einflussreichsten Stimmen im Silicon Valley, erzählte seinen Kollegen: "Sam had been lying to us all the time." (Sam hat die ganze Zeit über zu uns gelogen.)

Sicherheits-Fellowship: Ein Zugeständnis?

Im Kontext dieser Enthüllungen wirkt OpenAIs neues Safety Fellowship wie ein Versuch, das Blatt zu wenden. Das Programm bietet externen Forschern von September 2026 bis Februar 2027 die Möglichkeit, an OpenAI zu arbeiten. Die Kompensation: 3'850 Dollar pro Woche Stipendium plus rund 15'000 Dollar monatliches Compute-Budget. Die Forschungsbereiche sind ambitioniert: Safety Evaluation, Ethik, Robustheit, Agentic Oversight, Datenschutz. Die Bewerbungsfrist endet am 3. Mai.

Ob dieses Programm echtes Engagement für Sicherheit darstellt oder ein PR-Manöver zur Damage Control, werden die kommenden Monate zeigen. Nach den Enthüllungen ist es schwer zu glauben, dass OpenAI seine Sicherheitskultur wirklich transformiert hat – wenn die Führungsspitze nachweislich Versprechen bricht und Wahrheiten verdreht.

Vertrauen als Währung – und Altman ist bankrott

Altman hat sein Ziel erreicht: OpenAI ist im Zentrum der politischen Debatte um KI. Doch die Währung, mit der solche Debatten geführt werden, ist Vertrauen – und das hat OpenAI in der Breite verspielt. Seine Vision für eine neue Wirtschaftsordnung wird dadurch nicht weniger relevant. Aber wer soll sie umsetzen, wenn der Architekt als systematischer Lügner dokumentiert wurde? Das ist die eigentliche Krise, die sich aus diesen beiden parallel verlaufenden Geschichten ergibt.

Quellen

  • Fortune: New Deal(wird in neuem Tab geöffnet)
  • Semafor: Investigation(wird in neuem Tab geöffnet)
  • OpenAI: Policy(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Meta Claudeonomics Token-Experiment
Meta Claudeonomics Token-Experiment
KI-Business
9. April 2026

Meta verbrennt 60 Billionen Tokens – und spielifiziert es dabei

Meta hat eine interne Leaderboard namens Claudeonomics installiert: 85'000 Mitarbeiter, 60 Billionen Tokens in 30 Tagen.

Metas Token-Wettbewerb zeigt: Das Unternehmen experimentiert mit aller Kraft, um herauszufinden, was KI-Agenten können.

Weiterlesen
Samsung Halbleiter-Rekord
Samsung Halbleiter-Rekord
KI-Business
9. April 2026

Samsung zerlegt alle Gewinntabellen: 57 Billionen Won in einem Quartal

Samsung Electronics meldet 57,2 Billionen Won Betriebsgewinn in Q1 2026 – mehr als im gesamten Jahr 2025.

Samsung verdient in Q1 2026 mehr als in ganz 2025. Der KI-Speichermarkt bringt die Chipindustrie ins Hyperventilieren.

Weiterlesen
Anthropic KI-Innovation
Anthropic KI-Innovation
KI-Business
9. April 2026

Anthropic treibt KI-Industrie an: Von $30B Run-Rate bis zur Broadcom-Allianz

Anthropic hat innerhalb weniger Wochen eine Serie von Ankündigungen gemacht: $30B Run-Rate, Broadcom-Mega-Deal und Project Glasswing.

Anthropic überholt OpenAI bei der Run-Rate und sichert sich Compute bis 2031.

Weiterlesen