Bundesrätin Karin Keller-Sutter hat Strafanzeige wegen eines von Grok generierten sexistischen Textes eingereicht. Es ist der erste prominente Fall von KI-generierter Diffamierung in der Schweiz – ein Präzedenzfall zeichnet sich ab.

Wer einen Chatbot gezielt für beleidigende Inhalte einsetzt, muss mit strafrechtlichen Konsequenzen rechnen – die Verantwortung verschwindet nicht hinter dem Prompt.
Bundesrätin Karin Keller-Sutter hat Strafanzeige wegen Verleumdung und Beschimpfung eingereicht – wegen eines Textes, den Elon Musks KI-Chatbot Grok über sie generiert hat. Es ist der erste prominente Fall von KI-generierter Diffamierung in der Schweiz.
Am 10. März veranlasste ein 75-jähriger Schweizer X-Nutzer den Chatbot Grok, vulgäre, sexistische Beleidigungen über die Bundesrätin zu generieren. Der Output war auf X öffentlich sichtbar. Der Mann bezeichnete sein Vorgehen als «harmlose technische Übung» und löschte den Post wieder – doch da hatten Screenshots bereits die Runde gemacht.
Keller-Sutters Sprecher Pascal Hollenstein machte die Haltung klar: «Solche Frauenfeindlichkeit darf nicht als normal empfunden werden.» Die Strafanzeige richtet sich gegen unbekannt.
Strafrechtsprofessorin Monika Simmler (Universität St. Gallen) sieht gute Chancen, den Prompt-Autor haftbar zu machen. Ihre Argumentation: Die KI fungiert als Werkzeug, der Mensch trägt die Verantwortung für das Ergebnis – ähnlich wie jemand, der ein Megafon für Beschimpfungen nutzt.
Der Haken: Es gibt in der Schweiz bisher keine etablierte Rechtsprechung zu KI-generierter Diffamierung. Die Frage, ob die Plattform (X), der KI-Entwickler (xAI) oder der Prompt-Autor haftet, ist juristisches Neuland.
Dieser Fall wird von Juristen europaweit beobachtet. Die EU diskutiert im Rahmen des AI Acts ähnliche Haftungsfragen. Die Schweiz könnte mit diesem Verfahren faktisch Massstäbe setzen – noch bevor eine formelle Regulierung greift.
Für KI-Nutzer heisst das: Wer einen Chatbot gezielt für beleidigende Inhalte einsetzt, muss mit strafrechtlichen Konsequenzen rechnen. Die Verantwortung verschwindet nicht hinter dem Prompt.

Die Schweizer Wettbewerbskommission hat KI zum zentralen Schwerpunkt ihrer Jahresbilanz 2025 gemacht. Ihre Warnung: Algorithmen könnten de facto Kartelle bilden – ganz ohne menschliche Absprache.
Wer dynamische Pricing-Algorithmen einsetzt, sollte aufmerksam sein – auch ohne bewusste Absprache kann algorithmisches Gleichschalten kartellrechtlich relevant werden.

Das EU-Parlament hat mit 569 zu 45 Stimmen den Digital Omnibus verabschiedet – ein Änderungspaket zum AI Act, das Fristen verlängert, Nudifier-KI verbietet und den KMU-Schutz erweitert. Der erste Trilog fand noch am selben Tag statt.
Schweizer KI-Unternehmen, die in den EU-Markt liefern, erhalten durch die Fristverlängerungen im Digital Omnibus deutlich mehr Vorbereitungszeit für Compliance.

Richterin Rita F. Lin hat dem Pentagon eine Preliminary Injunction erteilt: Die Einstufung von Anthropic als Sicherheitsrisiko ist blockiert. In einer 43-seitigen Entscheidung sprach sie von «klassischer First-Amendment-Vergeltung».
Regierungen dürfen KI-Unternehmen nicht bestrafen, weil diese auf Sicherheitsstandards bestehen – das hat ein US-Bundesgericht erstmals klargestellt.