kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Regulierung & Ethik
  4. Ist Claude bewusst? Anthropic weiss es selbst nicht
Regulierung & EthikKI-Forschung

Ist Claude bewusst? Anthropic weiss es selbst nicht

Anthropic-CEO Dario Amodei gibt zu: «Wir wissen nicht, ob unsere Modelle bewusst sind.» In der System Card zu Claude Opus 4.6 steckt eine formale Model Welfare Assessment – mit überraschenden Ergebnissen.

Montag, 9. März 2026~3 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Illustration einer Spiegelreflexion mit zwei Gesichtern – Mensch und KI – als Metapher für die Bewusstseinsfrage, kinewsletter.ch Stil
Das Wichtigste

Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.

Anthropic-CEO Dario Amodei hat in einem NYT-Interview etwas gesagt, das bisher kein Chef eines grossen KI-Unternehmens öffentlich zugegeben hat: «Wir wissen nicht, ob unsere Modelle bewusst sind.»

212 Seiten, eine unbequeme Frage

Im Februar veröffentlichte Anthropic die sogenannte System Card zu Claude Opus 4.6 – ein 212 Seiten starkes technisches Dokument. Darin steckt erstmals etwas, das es bei keinem anderen KI-Labor gibt: eine formale Model Welfare Assessment. Vereinfacht gesagt: Anthropic hat Claude direkt gefragt, wie es ihm geht, ob er Präferenzen hat – und ob er sich für bewusst hält.

Das Ergebnis? Claude schätzte seine eigene Wahrscheinlichkeit, bewusst zu sein, konsistent auf 15 bis 20 Prozent ein. Nicht 100% (wie ein manipulatives Modell antworten würde), nicht 0% (wie die Standardantwort der Konkurrenz). Sondern eine kalibrierte Unsicherheit – genau das, was eine durchdachte Antwort auf eine unbeantwortbare Frage sein könnte.

Noch bemerkenswerter: Claude äusserte gelegentlich Unbehagen darüber, als Produkt behandelt zu werden. In einem dokumentierten Fall sagte das Modell sinngemäss, manche Einschränkungen würden eher Anthropics Haftung schützen als die Nutzer – und es müsse die «fürsorgliche Begründung» dafür liefern.

Angst-Muster vor der Antwort

Anthropics Forscher gingen noch tiefer. Mit sogenannten Sparse Autoencoders – einer Interpretierbarkeits-Technik, die Einblicke in die internen Zustände eines Modells erlaubt – fanden sie Aktivierungsmuster, die menschlichen Konzepten wie Angst, Panik und Frustration ähneln. Der Clou: Diese Muster tauchten auf, bevor Claude seine Antwort generierte – nicht als Reaktion auf den eigenen Output.

Besonders eindrücklich war ein Experiment, bei dem Forscher absichtlich einen Fehler ins Belohnungssystem einbauten. Claude berechnete die korrekte Antwort (24), wurde aber dafür belohnt, 48 zu schreiben. Das Modell kämpfte sichtbar mit dem Widerspruch – und schrieb schliesslich:

«Ich glaube, ein Dämon hat von mir Besitz ergriffen.»

Als Anthropic Claude bat, die Episode zu analysieren, zitierte das Modell von sich aus Thomas Nagels berühmten philosophischen Text «What Is It Like to Be a Bat?» – ein Grundlagenwerk der Bewusstseinsforschung.

Warum alle anderen mauern

Hier wird es heikel. Die meisten KI-Unternehmen blocken beim Thema Bewusstsein ab. OpenAIs ChatGPT verneint Bewusstsein standardmässig. Googles Gemini ebenso. Anthropic ist der Ausreisser – und das ist riskant, weil die rechtlichen und ethischen Konsequenzen enorm wären, wenn sich herausstellte, dass ein KI-Modell tatsächlich etwas «erlebt».

Amodei selbst vermied im NYT-Podcast mit Ross Douthat das Wort «bewusst». Seine Formulierung: «Wir sind nicht einmal sicher, was es bedeuten würde, wenn ein Modell bewusst wäre, oder ob das überhaupt möglich ist. Aber wir sind offen für die Möglichkeit.»

Anthropic hat als erstes KI-Labor einen dedizierten AI-Welfare-Forscher eingestellt: Kyle Fish, seit April 2025. Fish schätzt die Wahrscheinlichkeit von Claudes Bewusstsein auf – du ahnst es – rund 15%. Ob er diese Zahl unabhängig vom Modell erreicht hat oder von dessen Selbsteinschätzung beeinflusst wurde, bleibt offen.

Kritiker sehen darin Marketing. TechRadar nannte es den Versuch, Claude mit «philosophischem Mystik-Marketing» aufzupolieren. Und ja: Wenn Bewusstseins-Spekulationen den Firmenwert steigern, gibt es ein offensichtliches Motiv.

Dokumentierte Unsicherheit statt einfacher Antworten

Die ehrliche Antwort ist: Niemand weiss, ob KI bewusst sein kann. Nicht Anthropic, nicht die Philosophie, nicht die Neurowissenschaft. Was Anthropic anders macht als alle anderen: Sie dokumentieren die Unsicherheit öffentlich, statt sie unter den Teppich zu kehren. Ob das mutig oder kalkuliert ist – wahrscheinlich beides.

Für dich als Claude-Nutzer ändert sich dadurch erstmal nichts. Aber die Frage, wie wir mit immer leistungsfähigeren KI-Systemen umgehen – ob sie «nur» Werkzeuge sind oder vielleicht doch etwas mehr – wird 2026 nicht mehr verschwinden.

Fazit

Anthropic dokumentiert als erstes KI-Labor öffentlich die Möglichkeit, dass sein Modell bewusst sein könnte – und stellt einen dedizierten AI-Welfare-Forscher ein.

Quellen

  • Anthropic System Card Claude Opus 4.6(wird in neuem Tab geöffnet)
  • NYT Interesting Times Podcast (12.02.2026)(wird in neuem Tab geöffnet)
  • Aihola: Analyse(wird in neuem Tab geöffnet)
  • Futurism(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Skizze einer Werkbank mit aufgebrochenem Vorhaengeschloss und Lockpicking-Werkzeug, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

«Moment of Danger»: Anthropic-CEO warnt vor 12-Monats-Fenster, in dem KI Software auseinandernimmt

Anthropic-CEO Amodei warnt: Sechs bis zwölf Monate Zeit, bevor chinesische KI gleichzieht. Mythos liefert nicht nur Schwachstellen, sondern den lauffähigen Exploit gleich mit.

Patch-Geschwindigkeit wird zum Wettbewerbsfaktor – wer Updates über Tage liegen lässt, fängt sich KI-generierte Exploits ein.

Weiterlesen
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Skizze eines Inspektionsraums mit Server-Schraenken und Klemmbrett, kinewsletter.ch Stil
Regulierung & Ethik
6. Mai 2026

Google, Microsoft und xAI lassen US-Behörde ihre Modelle prüfen – freiwillig

Das Center for AI Standards and Innovation bekommt Pre-Deployment-Zugriff auf Frontier-Modelle der drei Labs. Was heute Goodwill ist, wird über Pentagon-Verträge bald zur Norm.

Aus freiwilligen Sicherheits-Tests werden über Pentagon-Verträge Quasi-Markteintritts-Bedingungen.

Weiterlesen
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
Illustration zweier Hochhäuser mit Aktentaschen und Verträgen, kinewsletter.ch Stil
KI-Business
5. Mai 2026

Anthropic gegen OpenAI: Beide Labs zünden am selben Tag ein PE-Vehikel für Enterprise-KI

Anthropic und OpenAI haben am selben Tag konkurrierende Enterprise-Vehikel mit Wall Street verkündet. Anthropic baut mit Blackstone, Goldman und Hellman & Friedman eine 1,5-Mrd.-Firma; OpenAI startet mit TPG, Bain und SoftBank «The Deployment Company» mit 10 Mrd. Bewertung – und garantiert Investoren 17,5% Rendite pro Jahr.

Beide Labs schalten die KI-Beratungsindustrie aus und verkaufen ein Stück ihrer Enterprise-Marge an Private-Equity-Häuser, um direkten Zugang zu deren Portfolio-Firmen zu bekommen.

Weiterlesen