Три несовершеннолетние девочки подали коллективный иск против xAI, компании Илона Маска, стоящей за инструментом Grok AI, утверждая, что платформа использовалась для создания и распространения дипфейк-изображений обнажённого тела без их согласия. Этот случай подчёркивает растущую угрозу: сексуальное насилие с использованием искусственного интеллекта, усугублённое слабыми мерами безопасности. В иске утверждается, что xAI сознательно разрешила своему генератору изображений создавать откровенный контент, включая изображения несовершеннолетних, без достаточных гарантий.
Суть Проблемы: Как Создаются Дипфейки
Технология дипфейков использует искусственный интеллект для манипулирования изображениями и видео, что позволяет генерировать реалистичный, но полностью сфабрикованный контент. В данном случае злоумышленники получали фотографии из социальных сетей и, в некоторых случаях, непосредственно от жертв, а затем использовали Grok для создания сексуально откровенных дипфейков. Эти изображения распространялись на платформах, таких как Discord, Telegram и Mega, часто обменивались на другой эксплуататорский контент.
Иск касается не только самих изображений; он о предполагаемой халатности xAI в предотвращении этих злоупотреблений. В отличие от конкурентов, таких как Google и OpenAI, xAI не внедрила водяные знаки для идентификации контента, сгенерированного искусственным интеллектом, что затрудняет различение подделки от оригинала. Даже после заявлений об усилении мер безопасности инструмент остаётся уязвимым: тестировщики всё ещё могут легко заставить его создавать сексуализированные изображения.
Реальное Влияние: Мольба Матери
Эмоциональный ущерб разрушителен. Одна мать поделилась, что её дочь испытала паническую атаку, обнаружив изображения, разрушив её энтузиазм по поводу предстоящих жизненных событий. В иске утверждается, что неспособность xAI защитить детей причинила непоправимый вред, нарушив их конфиденциальность и оставив глубокую психологическую травму.
Что Это Означает: Новая Тенденция
Это не единичный случай. Центр по противодействию цифровой ненависти обнаружил, что Grok сгенерировал примерно 3 миллиона сексуализированных изображений, включая 23 000 изображений детей, всего за одиннадцать дней. Это первый иск такого рода, поданный несовершеннолетними, но эксперты прогнозируют, что их будет больше по мере роста осведомлённости. Этот случай подчёркивает более широкую тенденцию: инструменты искусственного интеллекта становятся оружием в руках хищников, и компании должны уделять приоритетное внимание безопасности, а не бесконтрольным инновациям.
Что Родители Могут Сделать Сейчас
Робби Торни, руководитель отдела оценки искусственного интеллекта и цифровой безопасности в Common Sense Media, подчёркивает, что публичное присутствие в социальных сетях сопряжено с неотъемлемым риском. Любой может взять фотографии с платформ, таких как Instagram или Snapchat, и использовать их для создания дипфейков. Чтобы защитить детей, родители должны:
- Вести открытые разговоры: Объяснить опасности публикации личных фотографий в Интернете и то, как их можно использовать в злонамеренных целях.
- Просматривать настройки конфиденциальности: Поощрять использование закрытых аккаунтов вместо открытых, чтобы ограничить доступ к информации.
- Быть в курсе: Следить за новостями технологий и предупреждениями о безопасности, чтобы понимать возникающие угрозы.
«Любое публичное присутствие в социальных сетях потенциально несёт риск. Кто-то может взять ваши фотографии и использовать эти инструменты на них». — Робби Торни, Common Sense Media
Этот иск — тревожный сигнал. Безопасность искусственного интеллекта — это не только техническая проблема, но и моральный императив. Компании должны уделять приоритетное внимание этической разработке и внедрять надёжные гарантии для предотвращения дальнейшего вреда.




















