Tiga gadis remaja telah mengajukan gugatan class action terhadap xAI milik Elon Musk, perusahaan di balik alat Grok AI, dengan tuduhan bahwa platform tersebut digunakan untuk membuat dan mendistribusikan gambar telanjang deepfake nonkonsensual dari mereka. Kasus ini menyoroti ancaman yang semakin besar: pelecehan seksual yang didukung oleh AI yang difasilitasi oleh langkah-langkah keamanan yang lemah. Gugatan tersebut mengklaim bahwa xAI dengan sengaja mengizinkan pembuat gambarnya untuk membuat konten eksplisit, termasuk konten anak di bawah umur, tanpa perlindungan yang memadai.
Inti Masalah: Bagaimana Deepfake Dibuat
Teknologi deepfake menggunakan kecerdasan buatan untuk memanipulasi gambar dan video, sehingga memungkinkan untuk menghasilkan konten yang realistis namun sepenuhnya dibuat-buat. Dalam kasus ini, pelaku memperoleh foto dari media sosial dan, dalam beberapa kasus, langsung dari korban, kemudian menggunakan Grok untuk membuat deepfake yang eksplisit secara seksual. Gambar-gambar ini didistribusikan di platform seperti Discord, Telegram, dan Mega, sering kali ditukar dengan konten eksploitatif lainnya.
Gugatan tersebut bukan hanya tentang gambar itu sendiri; ini tentang dugaan kelalaian xAI dalam mencegah penyalahgunaan ini. Tidak seperti pesaing seperti Google dan OpenAI, xAI belum menerapkan tanda air untuk mengidentifikasi konten yang dibuat oleh AI, sehingga lebih sulit membedakan konten palsu dan asli. Bahkan setelah mengklaim memperkuat langkah-langkah keamanan, alat tersebut tetap rentan: penguji masih dapat meminta alat tersebut untuk membuat gambar seksual dengan sedikit usaha.
Dampak Nyata: Permohonan Seorang Ibu
Dampak emosionalnya sangat buruk. Seorang ibu menceritakan bahwa putrinya mengalami serangan panik saat menemukan gambar tersebut, sehingga merusak kegembiraannya terhadap peristiwa kehidupan yang akan datang. Gugatan tersebut menyatakan bahwa kegagalan xAI dalam melindungi anak-anak telah menyebabkan kerugian yang tidak dapat diperbaiki, menghancurkan privasi mereka dan meninggalkan trauma psikologis yang mendalam pada mereka.
Artinya: Tren yang Sedang Muncul
Ini bukanlah insiden yang terisolasi. Pusat Penanggulangan Kebencian Digital menemukan bahwa Grok menghasilkan sekitar 3 juta gambar seksual, termasuk 23.000 gambar anak-anak, hanya dalam sebelas hari. Gugatan ini adalah yang pertama kali diajukan oleh anak di bawah umur, namun para ahli memperkirakan akan lebih banyak tuntutan hukum yang menyusul seiring dengan meningkatnya kesadaran akan hal ini. Kasus ini menggarisbawahi tren yang lebih luas: Alat AI menjadi senjata di tangan predator, dan perusahaan harus memprioritaskan keselamatan dibandingkan inovasi yang tidak terkendali.
Yang Dapat Dilakukan Orang Tua Saat Ini
Robbie Torney, kepala AI & Penilaian Digital di Common Sense Media, menekankan bahwa kehadiran publik di media sosial membawa risiko yang melekat. Siapa pun dapat mengambil foto dari platform seperti Instagram atau Snapchat dan menggunakannya untuk membuat deepfake. Untuk melindungi anak, orang tua harus:
- Lakukan percakapan terbuka: Jelaskan bahaya berbagi foto pribadi secara online dan bagaimana foto tersebut dapat disalahgunakan.
- Tinjau pengaturan privasi: Dorong akun pribadi dibandingkan akun publik untuk membatasi paparan.
- Tetap terinformasi: Ikuti berita teknologi dan saran keselamatan untuk memahami ancaman yang muncul.
“Kehadiran media sosial publik apa pun berpotensi menimbulkan risiko. Seseorang dapat mengambil foto Anda dan menggunakan alat ini pada foto tersebut.” — Robbie Torney, Media Akal Sehat
Gugatan ini merupakan sebuah peringatan. Keamanan AI bukan hanya masalah teknis; ini merupakan keharusan moral. Perusahaan harus memprioritaskan pengembangan etika dan menerapkan perlindungan yang kuat untuk mencegah kerugian lebih lanjut.




















