Trzy nieletnie dziewczynki złożyły pozew zbiorowy przeciwko xAI, firmie stojącej za narzędziem Grok AI Elona Muska, twierdząc, że platforma była wykorzystywana do tworzenia i rozpowszechniania fałszywych zdjęć nagich bez ich zgody. Ta sprawa uwydatnia rosnące zagrożenie: Napaść na tle seksualnym wspomaganą przez sztuczną inteligencję, zaostrzoną przez luźne środki bezpieczeństwa. W pozwie zarzuca się, że xAI świadomie zezwoliła swojemu generatorowi obrazów na tworzenie treści dla dorosłych, w tym wizerunków nieletnich, bez wystarczających zabezpieczeń.

Istota problemu: jak powstają Deepfakes

Technologia Deepfake wykorzystuje sztuczną inteligencję do manipulowania obrazami i filmami w celu generowania realistycznych, ale całkowicie sfabrykowanych treści. W tym przypadku napastnicy uzyskali zdjęcia z mediów społecznościowych, a w niektórych przypadkach bezpośrednio od ofiar, a następnie wykorzystali Grok do stworzenia deepfake’ów o charakterze jednoznacznie seksualnym. Obrazy te były rozpowszechniane na platformach takich jak Discord, Telegram i Mega, często wymieniane na inne treści o charakterze wyzysku.

Pozew nie dotyczy tylko samych obrazów; chodzi o rzekome zaniedbania xAI w zapobieganiu tym nadużyciom. W przeciwieństwie do konkurentów, takich jak Google i OpenAI, xAI nie wdrożyło znaków wodnych w celu identyfikacji treści generowanych przez sztuczną inteligencję, co utrudnia odróżnienie podróbek od oryginału. Nawet po zapewnieniu zwiększonych środków bezpieczeństwa narzędzie pozostaje podatne na ataki: testerzy nadal mogą z łatwością zmusić je do tworzenia obrazów o charakterze seksualnym.

Prawdziwy wpływ: prośba matki

Uszkodzenia emocjonalne są druzgocące. Jedna z matek podzieliła się informacją, że po odkryciu tych zdjęć jej córka dostała ataku paniki, co zrujnowało jej entuzjazm do nadchodzących wydarzeń życiowych. W pozwie zarzuca się, że zaniechanie przez xAI ochrony dzieci wyrządziło nieodwracalną szkodę, naruszając ich prywatność i pozostawiając je z głęboką traumą psychiczną.

Co to oznacza: nowy trend

To nie jest odosobniony przypadek. Centrum Przeciwdziałania Cyfrowej Nienawiści odkryło, że Grok wygenerował około 3 miliony obrazów o charakterze seksualnym, w tym 23 000 zdjęć dzieci, w ciągu zaledwie jedenastu dni. To pierwszy tego typu pozew złożony przez nieletnich, ale eksperci przewidują, że w miarę wzrostu świadomości będzie ich więcej. Ten przypadek ukazuje szerszy trend: Narzędzia AI stają się bronią w rękach drapieżników, a firmy muszą przedkładać bezpieczeństwo nad niekontrolowane innowacje.

Co rodzice mogą teraz zrobić

Robbie Torney, szef działu sztucznej inteligencji i oceny bezpieczeństwa cyfrowego w Common Sense Media, podkreśla, że obecność publiczna w mediach społecznościowych wiąże się z nieodłącznym ryzykiem. Każdy może robić zdjęcia z platform takich jak Instagram czy Snapchat i wykorzystywać je do tworzenia deepfakes. Aby chronić dzieci, rodzice powinni:

  • Prowadź otwarte rozmowy: Wyjaśnij niebezpieczeństwa związane z publikowaniem osobistych zdjęć w Internecie i sposoby ich wykorzystania do złych celów.
  • Wyświetl ustawienia prywatności: Zachęcaj do korzystania z kont prywatnych zamiast publicznych, aby ograniczyć dostęp do informacji.
  • Bądź na bieżąco: śledź aktualności technologiczne i alerty dotyczące bezpieczeństwa, aby poznać pojawiające się zagrożenia.

„Każda publiczna obecność w sieciach społecznościowych potencjalnie niesie ze sobą ryzyko. Ktoś może zrobić Twoje zdjęcia i użyć na nich tych narzędzi”. — Robbie Torney, zdrowy rozsądek w mediach

Ten pozew to sygnał alarmowy. Bezpieczeństwo sztucznej inteligencji to nie tylko kwestia techniczna, ale także imperatyw moralny. Firmy muszą priorytetowo traktować rozwój etyczny i wdrażać solidne zabezpieczenia, aby zapobiec dalszym szkodom.