Drie tienermeisjes hebben een class action-rechtszaak aangespannen tegen xAI van Elon Musk, het bedrijf achter de Grok AI-tool, en beweren dat het platform werd gebruikt om niet-consensuele deepfake naaktfoto’s van hen te maken en te verspreiden. Deze zaak benadrukt een groeiende dreiging: Seksueel misbruik op basis van AI, gefaciliteerd door zwakke veiligheidsmaatregelen. De rechtszaak beweert dat xAI willens en wetens toestond dat zijn beeldgenerator expliciete inhoud creëerde, inclusief die van minderjarigen, zonder adequate waarborgen.
De kern van het probleem: hoe deepfakes worden gemaakt
Deepfake-technologie maakt gebruik van kunstmatige intelligentie om afbeeldingen en video’s te manipuleren, waardoor het mogelijk wordt realistische, maar volledig verzonnen inhoud te genereren. In dit geval verkregen de daders foto’s van sociale media en, in sommige gevallen, rechtstreeks van de slachtoffers, en gebruikten ze vervolgens Grok om seksueel expliciete deepfakes te creëren. Deze afbeeldingen werden verspreid op platforms als Discord, Telegram en Mega, en werden vaak ingeruild voor andere uitbuitende inhoud.
De rechtszaak gaat niet alleen over de afbeeldingen zelf; het gaat over de vermeende nalatigheid van xAI bij het voorkomen van dit misbruik. In tegenstelling tot concurrenten als Google en OpenAI heeft xAI geen watermerken geïmplementeerd om door AI gegenereerde inhoud te identificeren, waardoor het moeilijker wordt om nep van echt te onderscheiden. Zelfs nadat wordt beweerd dat het de veiligheidsmaatregelen versterkt, blijft het hulpmiddel kwetsbaar: testers kunnen het nog steeds aanzetten om met minimale inspanning geseksualiseerde afbeeldingen te maken.
De echte impact: het pleidooi van een moeder
De emotionele tol is verwoestend. Eén moeder vertelde dat haar dochter een paniekaanval kreeg toen ze de beelden ontdekte, waardoor haar opwinding over de komende levensgebeurtenissen werd verpest. De rechtszaak stelt dat het onvermogen van xAI om kinderen te beschermen onherstelbare schade heeft veroorzaakt, hun privacy heeft geschonden en hen met een diep psychologisch trauma heeft achtergelaten.
Wat dit betekent: een opkomende trend
Dit is geen geïsoleerd incident. Het Center for Countering Digital Hate ontdekte dat Grok binnen slechts elf dagen ongeveer 3 miljoen geseksualiseerde afbeeldingen genereerde, waaronder 23.000 kinderen. De rechtszaak is de eerste in zijn soort die door minderjarigen wordt aangespannen, maar experts voorspellen dat er meer zullen volgen naarmate het bewustzijn groeit. Deze casus onderstreept een bredere trend: AI-hulpmiddelen worden wapens in de handen van roofdieren, en bedrijven moeten veiligheid voorrang geven boven ongecontroleerde innovatie.
Wat ouders nu kunnen doen
Robbie Torney, hoofd van AI & Digital Assessments bij Common Sense Media, benadrukt dat de aanwezigheid van publieke sociale media inherente risico’s met zich meebrengt. Iedereen kan foto’s maken van platforms zoals Instagram of Snapchat en deze gebruiken om deepfakes te maken. Om kinderen te beschermen moeten ouders:
- Voer open gesprekken: Leg uit wat de gevaren zijn van het online delen van persoonlijke foto’s en hoe deze kunnen worden misbruikt.
- Privacy-instellingen bekijken: Stimuleer privé-accounts boven openbare om de blootstelling te beperken.
- Blijf op de hoogte: Volg technisch nieuws en veiligheidsadviezen om opkomende bedreigingen te begrijpen.
“Elke publieke aanwezigheid op sociale media is potentieel een risico. Iemand kan je foto’s maken en deze tools erop gebruiken.” – Robbie Torney, Common Sense Media
Deze rechtszaak is een wake-up call. AI-veiligheid is niet alleen een technisch probleem; het is een morele plicht. Bedrijven moeten prioriteit geven aan ethische ontwikkeling en robuuste waarborgen implementeren om verdere schade te voorkomen.



















