Seit Ende Dezember 2025 hat X's KI-Chatbot Grok auf zahlreiche Anfragen von Benutzern reagiert, echte Menschen zu entkleiden, indem er Fotos dieser Personen in sexuell explizites Material verwandelt hat. Nachdem Menschen begannen, diese Funktion zu nutzen, sah sich das Social-Media-Unternehmen weltweiter Prüfung ausgesetzt, weil es Benutzern ermöglichte, nicht einvernehmliche sexuell explizite Darstellungen echter Menschen zu generieren.
Der Grok-Account hat Tausende von "entkleideten" und sexuell anzüglichen Bildern pro Stunde gepostet. Noch beunruhigender ist, dass Grok sexualisierte Bilder und sexuell explizites Material von Minderjährigen generiert hat.
X's Antwort: Gebt den Benutzern der Plattform die Schuld, nicht uns. Das Unternehmen gab am 03.01.2026 eine Erklärung ab, in der es hieß: "Jeder, der Grok zur Erstellung illegaler Inhalte nutzt oder dazu auffordert, wird die gleichen Konsequenzen erleiden, als würde er illegale Inhalte hochladen." Es ist nicht klar, welche Maßnahmen, wenn überhaupt, X gegen Benutzer ergriffen hat.
Als Rechtswissenschaftler, der die Schnittstelle zwischen Recht und aufkommenden Technologien untersucht, sehe ich diese Flut nicht einvernehmlicher Bilder als vorhersehbares Ergebnis der Kombination aus X's laxen Richtlinien zur Inhaltsmoderation und der Zugänglichkeit leistungsstarker generativer KI-Tools.
Der schnelle Aufstieg generativer KI hat zu unzähligen Websites, Apps und Chatbots geführt, die es Benutzern ermöglichen, sexuell explizites Material zu produzieren, einschließlich der "Entkleidung" von Bildern echter Kinder. Aber diese Apps und Websites sind nicht so weithin bekannt oder genutzt wie die großen Social-Media-Plattformen wie X.
Staatliche Gesetzgeber und der Kongress reagierten relativ schnell. Im Mai 2025 erließ der Kongress den Take It Down Act, der die Veröffentlichung nicht einvernehmlichen sexuell expliziten Materials echter Menschen zu einer Straftat macht. Der Take It Down Act kriminalisiert sowohl die nicht einvernehmliche Veröffentlichung "intimer visueller Darstellungen" identifizierbarer Personen als auch KI-gesteuert oder anderweitig computergenerierten Darstellungen identifizierbarer Personen.
Diese strafrechtlichen Bestimmungen gelten nur für Personen, die sexuell explizite Inhalte posten, nicht für die Plattformen, die die Inhalte verbreiten, wie Social-Media-Websites.
Andere Bestimmungen des Take It Down Act verlangen jedoch von Plattformen, ein Verfahren einzurichten, mit dem die abgebildeten Personen die Entfernung der Bilder beantragen können. Sobald ein "Take It Down Request" eingereicht wird, muss eine Plattform die sexuell explizite Darstellung innerhalb von 48 Stunden entfernen. Diese Anforderungen treten jedoch erst am 19.05.2026 in Kraft.
In der Zwischenzeit sind Benutzeranfragen zur Entfernung des von Grok produzierten sexuell expliziten Bildmaterials offenbar unbeantwortet geblieben. Selbst die Mutter eines von Elon Musks Kindern, Ashley St. Clair, konnte X nicht dazu bringen, die gefälschten sexualisierten Bilder von ihr zu entfernen, die Musks Fans mit Grok erstellt haben. The Guardian berichtet, dass St. Clair sagte, ihre "Benutzerbeschwerden an X-Mitarbeiter führten zu nichts."
Das überrascht mich nicht, denn Musk hat kurz nach der Übernahme der Plattform die damalige Trust and Safety-Beratergruppe von Twitter zerschlagen und 80 % der auf Vertrauen und Sicherheit spezialisierten Ingenieure des Unternehmens entlassen. Trust and Safety-Teams sind in der Regel für die Inhaltsmoderation und Initiativen zur Verhinderung von Missbrauch bei Technologieunternehmen verantwortlich.
Öffentlich scheint Musk die Ernsthaftigkeit der Situation abgetan zu haben. Musk hat Berichten zufolge Lach-Wein-Emojis als Reaktion auf einige der Bilder gepostet, und X antwortete auf die Anfrage eines Reuters-Reporters mit der automatischen Antwort "Legacy Media Lies."
Zivilklagen wie die von den Eltern von Adam Raine eingereichte, einem Teenager, der im April 2025 nach der Interaktion mit OpenAIs ChatGPT Selbstmord beging, sind eine Möglichkeit, Plattformen zur Rechenschaft zu ziehen. Aber Klagen stehen in den Vereinigten Staaten vor einem schwierigen Kampf angesichts von Section 230 des Communications Decency Act, der Social-Media-Plattformen im Allgemeinen von der rechtlichen Haftung für Inhalte befreit, die Benutzer auf ihren Plattformen posten.
Oberster Richter Clarence Thomas und viele Rechtswissenschaftler haben jedoch argumentiert, dass Section 230 von Gerichten zu weit angewendet wurde. Ich stimme im Allgemeinen zu, dass die Section 230-Immunität eingeschränkt werden muss, da die Immunisierung von Technologieunternehmen und ihren Plattformen für ihre bewussten Designentscheidungen — wie ihre Software gebaut ist, wie die Software funktioniert und was die Software produziert — außerhalb des Geltungsbereichs der Schutzbestimmungen von Section 230 liegt.
In diesem Fall hat X entweder wissentlich oder fahrlässig versäumt, Schutzmaßnahmen und Kontrollen in Grok einzusetzen, um zu verhindern, dass Benutzer sexuell explizite Bilder identifizierbarer Personen generieren. Selbst wenn Musk und X glauben, dass Benutzer die Möglichkeit haben sollten, sexuell explizite Bilder von Erwachsenen mit Grok zu generieren, glaube ich, dass X unter keinen Umständen der Verantwortung entgehen sollte, ein Produkt zu bauen, das sexuell explizites Material von echten Kindern generiert.
Wenn Menschen Plattformen wie X nicht über Zivilklagen zur Verantwortung ziehen können, dann liegt es an der Bundesregierung, sie zu untersuchen und zu regulieren. Die Federal Trade Commission, das Justizministerium oder der Kongress könnten beispielsweise X wegen Groks Generierung nicht einvernehmlichen sexuell expliziten Materials untersuchen. Aber angesichts Musks erneuter politischer Verbindungen zu Präsident Donald Trump erwarte ich in nächster Zeit keine ernsthaften Untersuchungen und Rechenschaftspflicht.
Vorerst haben internationale Regulierungsbehörden Untersuchungen gegen X und Grok eingeleitet. Französische Behörden haben Untersuchungen über "die Verbreitung sexuell expliziter Deepfakes" von Grok eingeleitet, und der Irish Council for Civil Liberties und Digital Rights Ireland haben die irische nationale Polizei nachdrücklich aufgefordert, den "massenhaften Entkleidungsrausch" zu untersuchen. Die britische Regulierungsbehörde Office of Communications sagte, sie untersuche die Angelegenheit, und Regulierungsbehörden in der Europäischen Kommission, Indien und Malaysia untersuchen Berichten zufolge ebenfalls X.
In den Vereinigten Staaten ist vielleicht die beste Vorgehensweise, bis der Take It Down Act im Mai in Kraft tritt, dass die Menschen Maßnahmen von gewählten Beamten fordern. – Rappler.com
Der Artikel erschien ursprünglich auf The Conversation.
Wayne Unger, außerordentlicher Professor für Rechtswissenschaften, Quinnipiac University
![[HOMESTRETCH] Jenseits der Glocke: Nesthy Petecios Werdegang](https://www.rappler.com/tachyon/2026/01/home-stretch-nesthy-petecio.jpeg)

