Tre ragazze adolescenti hanno intentato un’azione legale collettiva contro xAI di Elon Musk, la società dietro lo strumento Grok AI, sostenendo che la piattaforma è stata utilizzata per creare e distribuire immagini di nudo deepfake non consensuali di loro. Questo caso evidenzia una minaccia crescente: abusi sessuali alimentati dall’intelligenza artificiale facilitati da deboli misure di sicurezza. La causa afferma che xAI ha consapevolmente permesso al suo generatore di immagini di creare contenuti espliciti, compresi quelli di minori, senza adeguate garanzie.

Il nocciolo del problema: come vengono realizzati i deepfake

La tecnologia Deepfake utilizza l’intelligenza artificiale per manipolare immagini e video, consentendo di generare contenuti realistici ma interamente inventati. In questo caso, gli autori del reato hanno ottenuto foto dai social media e, in alcuni casi, direttamente dalle vittime, quindi hanno utilizzato Grok per creare deepfake sessualmente espliciti. Queste immagini sono state distribuite su piattaforme come Discord, Telegram e Mega, spesso scambiate con altri contenuti di sfruttamento.

La causa non riguarda solo le immagini stesse; si tratta della presunta negligenza di xAI nel prevenire questo abuso. A differenza di concorrenti come Google e OpenAI, xAI non ha implementato filigrane per identificare i contenuti generati dall’intelligenza artificiale, rendendo più difficile distinguere il falso dal reale. Anche dopo aver affermato di rafforzare le misure di sicurezza, lo strumento rimane vulnerabile: i tester possono comunque spingerlo a creare immagini sessualizzate con il minimo sforzo.

Il vero impatto: la supplica di una madre

Il bilancio emotivo è devastante. Una madre ha raccontato che sua figlia ha avuto un attacco di panico dopo aver scoperto le immagini, rovinando la sua eccitazione per i prossimi eventi della vita. La causa sostiene che il fallimento di xAI nel proteggere i bambini ha causato danni irreparabili, mandando in frantumi la loro privacy e lasciandoli con un profondo trauma psicologico.

Cosa significa: una tendenza emergente

Questo non è un incidente isolato. Il Center for Countering Digital Hate ha scoperto che Grok ha generato circa 3 milioni di immagini sessualizzate, tra cui 23.000 di bambini, in soli undici giorni. La causa è la prima di questo tipo intentata da minorenni, ma gli esperti prevedono che ne seguiranno altre man mano che la consapevolezza aumenterà. Questo caso sottolinea una tendenza più ampia: gli strumenti di intelligenza artificiale stanno diventando armi nelle mani dei predatori e le aziende devono dare priorità alla sicurezza rispetto all’innovazione incontrollata.

Cosa possono fare i genitori adesso

Robbie Torney, responsabile AI & Digital Assessments presso Common Sense Media, sottolinea che la presenza pubblica sui social media comporta rischi intrinseci. Chiunque può scattare foto da piattaforme come Instagram o Snapchat e usarle per creare deepfake. Per proteggere i bambini, i genitori dovrebbero:

  • Conversazioni aperte: spiega i pericoli della condivisione di foto personali online e come possono essere utilizzate in modo improprio.
  • Rivedi le impostazioni sulla privacy: incoraggia gli account privati ​​rispetto a quelli pubblici per limitare l’esposizione.
  • Rimani informato: segui le notizie tecnologiche e gli avvisi sulla sicurezza per comprendere le minacce emergenti.

“Qualsiasi presenza pubblica sui social media è potenzialmente un rischio. Qualcuno può scattare le tue foto e utilizzare questi strumenti su di esse.” — Robbie Torney, Common Sense Media

Questa causa è un campanello d’allarme. La sicurezza dell’IA non è solo un problema tecnico; è un imperativo morale. Le aziende devono dare priorità allo sviluppo etico e implementare solide misure di salvaguardia per prevenire ulteriori danni.