Trois adolescentes ont déposé un recours collectif contre xAI d’Elon Musk, la société à l’origine de l’outil Grok AI, alléguant que la plate-forme a été utilisée pour créer et distribuer de fausses images nues non consensuelles d’elles. Cette affaire met en évidence une menace croissante : Les abus sexuels basés sur l’IA facilités par de faibles mesures de sécurité. Le procès affirme que xAI a sciemment autorisé son générateur d’images à créer du contenu explicite, y compris celui de mineurs, sans garanties adéquates.

Le cœur du problème : comment sont créés les deepfakes

La technologie Deepfake utilise l’intelligence artificielle pour manipuler des images et des vidéos, permettant ainsi de générer du contenu réaliste mais entièrement fabriqué. Dans ce cas, les auteurs ont obtenu des photos sur les réseaux sociaux et, dans certains cas, directement auprès des victimes, puis ont utilisé Grok pour créer des deepfakes sexuellement explicites. Ces images ont été distribuées sur des plateformes comme Discord, Telegram et Mega, souvent échangées contre d’autres contenus exploiteurs.

Le procès ne concerne pas seulement les images elles-mêmes ; il s’agit de la négligence présumée de xAI dans la prévention de cet abus. Contrairement à des concurrents comme Google et OpenAI, xAI n’a pas mis en place de filigranes pour identifier le contenu généré par l’IA, ce qui rend plus difficile la distinction entre le faux et le réel. Même après avoir prétendu renforcer les mesures de sécurité, l’outil reste vulnérable : les testeurs peuvent toujours l’inciter à créer des images sexualisées avec un minimum d’effort.

Le véritable impact : le plaidoyer d’une mère

Le bilan émotionnel est dévastateur. Une mère a raconté que sa fille avait eu une crise de panique en découvrant les images, ruinant ainsi son enthousiasme pour les événements de sa vie à venir. Le procès fait valoir que l’incapacité de xAI à protéger les enfants a causé un préjudice irréparable, brisant leur vie privée et les laissant avec un profond traumatisme psychologique.

Ce que cela signifie : une tendance émergente

Ce n’est pas un incident isolé. Le Centre de lutte contre la haine numérique a constaté que Grok avait généré environ 3 millions d’images sexualisées, dont 23 000 d’enfants, en seulement onze jours. Il s’agit du premier procès du genre intenté par des mineurs, mais les experts prédisent que d’autres suivront à mesure que la prise de conscience se développera. Cette affaire souligne une tendance plus large : les outils d’IA deviennent des armes entre les mains des prédateurs, et les entreprises doivent donner la priorité à la sécurité plutôt qu’à l’innovation incontrôlée.

Ce que les parents peuvent faire maintenant

Robbie Torney, responsable des évaluations IA et numériques chez Common Sense Media, souligne que la présence publique sur les réseaux sociaux comporte des risques inhérents. N’importe qui peut prendre des photos depuis des plateformes comme Instagram ou Snapchat et les utiliser pour créer des deepfakes. Pour protéger les enfants, les parents doivent :

  • ** Ayez des conversations ouvertes :** Expliquez les dangers du partage de photos personnelles en ligne et comment elles peuvent être utilisées à mauvais escient.
  • Vérifiez les paramètres de confidentialité : Encouragez les comptes privés plutôt que les comptes publics afin de limiter l’exposition.
  • Restez informé : Suivez l’actualité technologique et les avis de sécurité pour comprendre les menaces émergentes.

“Toute présence publique sur les réseaux sociaux est potentiellement un risque. Quelqu’un peut prendre vos photos et utiliser ces outils dessus.” — Robbie Torney, Médias de bon sens

Ce procès est un signal d’alarme. La sécurité de l’IA n’est pas seulement un problème technique ; c’est un impératif moral. Les entreprises doivent donner la priorité au développement éthique et mettre en œuvre des mesures de protection solides pour éviter de nouveaux dommages.