Три неповнолітні дівчатка подали колективний позов проти xAI, компанії Ілона Маска, яка стоїть за інструментом Grok AI, стверджуючи, що платформа використовувалася для створення та розповсюдження дипфейк-зображень оголеного тіла без їхньої згоди. Цей випадок підкреслює загрозу, що зростає: сексуальне насильство з використанням штучного інтелекту, посилене слабкими заходами безпеки. У позові стверджується, що xAI свідомо дозволила своєму генератору зображень створювати відвертий контент, включаючи зображення неповнолітніх, без достатніх гарантій.
Суть Проблеми: Як Створюються Дипфейки
Технологія дипфейків використовує штучний інтелект для маніпулювання зображеннями та відео, що дозволяє генерувати реалістичний, але повністю сфабрикований контент. У цьому випадку зловмисники отримували фотографії із соціальних мереж і, в деяких випадках, безпосередньо від жертв, а потім використовували Grok для створення сексуально відвертих дипфейків. Ці зображення розповсюджувалися на платформах, таких як Discord, Telegram та Mega, часто обмінювалися на інший експлуататорський контент.
Позов стосується не лише самих зображень; він про передбачувану недбалість xAI у запобіганні цих зловживань. На відміну від конкурентів, таких як Google і OpenAI, xAI не впровадила водяні знаки для ідентифікації контенту, згенерованого штучним інтелектом, що ускладнює розрізнення підробки від оригіналу. Навіть після заяв про посилення заходів безпеки, інструмент залишається вразливим: тестувальники все ще можуть легко змусити його створювати сексуалізовані зображення.
Реальний Вплив: Благання Матері
Емоційна шкода руйнівна. Одна мати поділилася, що її дочка зазнала панічну атаку, виявивши зображення, зруйнувавши її ентузіазм щодо майбутніх життєвих подій. У позові стверджується, що нездатність xAI захистити дітей завдала непоправної шкоди, порушивши їхню конфіденційність і залишивши глибоку психологічну травму.
Що Це означає: Нова Тенденція
Це не поодинокий випадок. Центр протидії цифровій ненависті виявив, що Grok згенерував приблизно 3 мільйони сексуалізованих зображень, включаючи 23 000 зображень дітей, всього за одинадцять днів. Це перший позов такого роду, поданий неповнолітніми, але експерти прогнозують, що їх буде більше зі зростанням обізнаності. Цей випадок підкреслює ширшу тенденцію: інструменти штучного інтелекту стають зброєю в руках хижаків, і компанії повинні приділяти пріоритетну увагу безпеці, а не безконтрольним інноваціям.
Що Батьки Можуть Зробити Зараз
Роббі Торні, керівник відділу оцінки штучного інтелекту та цифрової безпеки в Common Sense Media, наголошує, що публічна присутність у соціальних мережах пов’язана з невід’ємним ризиком. Будь-який може взяти фотографії з платформ, таких як Instagram або Snapchat, та використовувати їх для створення дипфейків. Щоб захистити дітей, батьки мають:
- Вісті відкриті розмови: Пояснити небезпеку публікації особистих фотографій в Інтернеті та те, як їх можна використовувати в зловмисних цілях.
- Перегляд конфіденційності: Заохочувати використання закритих облікових записів замість відкритих, щоб обмежити доступ до інформації.
- Бути в курсі: Слідкувати за новинами технологій та попередженнями про безпеку, щоб розуміти загрози, що виникають.
«Будь-яка публічна присутність у соціальних мережах потенційно несе ризик. Хтось може взяти ваші фотографії та використовувати ці інструменти на них». – Роббі Торні, Common Sense Media
Цей позов – тривожний сигнал. Безпека штучного інтелекту — це не лише технічна проблема, а й моральний імператив. Компанії повинні приділяти пріоритетну увагу етичній розробці та впроваджувати надійні гарантії для запобігання подальшій шкоді.
























