Jakarta – Kasus pornografi deepfake mulai menghantui Singapura, utamanya generasi muda. Pada November kemarin, sejumlah siswa remaja dari sekolah olahraga Singapura diusut polisi imbas membuat dan menyebarkan foto telanjang palsu teman-teman sekolah perempuan mereka, berbekal artificial intelligence (AI).
Akhir bulan itu, lima menteri di Singapura dan lebih dari 100 pegawai negeri di 31 lembaga pemerintah bahkan menerima email pemerasan. Isinya adalah tuntutan pembayaran mata uang kripto sebagai imbalan agar foto-foto pornografi deepfake tidak diunggah lebih luas.
Ini adalah kasus terbaru konten seksual palsu buatan AI di Singapura, dan tentu bukan yang terakhir, baik di Singapura, maupun di seluruh dunia.
Tren di dunia
Pada 2017, utas Reddit yang menawarkan video palsu ‘Taylor Swift’ sedang berhubungan seks berhasil mengumpulkan 90.000 subscriber atau pelanggan, sebelum akhirnya konten berhasil dihapus delapan pekan kemudian.
Tahun lalu, di sebuah kota kecil Spanyol, lebih dari 20 gadis muda menemukan foto telanjang mereka yang dibuat dengan AI marak beredar, konten-konten tersebut disebarkan remaja laki-laki dari akses foto-foto selfie pada media sosial.
Hal yang mengkhawatirkan menurut penelitian adalah bahaya semacam ini menjadi semakin normal. Makin banyak pengguna berpikir bahwa hal itu adalah wajar.
Pada 2023, survei oleh lembaga nirlaba lokal SG Her Empowerment menemukan 20 persen responden melaporkan tidak terpengaruh karena bahaya daring merupakan bagian normal dari kehidupan, sementara 66 persen lainnya telah melakukan kehati-hatian, dengan tidak terlalu banyak mengekspos foto pribadi di media sosial.
Namun, tetap saja, analoginya adalah alih-alih melawan pengganggu di taman bermain, orang-orang menjauh dari arena bermain, dan tidak memahami bahaya yang ditimbulkan.
Belum lagi, dampak terkait gangguan kesehatan mental yang dialami oleh para korban saat menemukan video pornografi deepfake tentang diri mereka sendiri, tidak peduli seberapa cepat dihapus.
Dari perspektif gender, ceritanya bahkan lebih suram. Diperkirakan 95 persen pornografi deepfake adalah menyangkut perempuan. Perempuan menjadi sasaran secara tidak proporsional secara daring, berpotensi menghambat kemajuan yang telah dicapai dalam kesetaraan gender.
Stefanie Yuen Thio, Associate Director di TSMP Law Corporation mengimbau agar masyarakat tidak mudah membagikan foto pribadi secara daring.
“Jika kejahatan terjadi, segera melaporkan kepada pihak berwenang. Jika mengenal seseorang yang telah menjadi sasaran, dorong mereka untuk mengambil tindakan. Para penyintas tidak perlu merasa malu, penting bagi mereka untuk mengambil kembali kendali,” kata dia, dikutip dari CNA, Kamis (5/12/2024).
Insiden di Singapura
Sebelum insiden di sekolah sport, pihak berwenang di Singapura bersiap menghadapi gelombang baru cyber attack atau kejahatan daring ini. Setidaknya ada tiga poin dalam undang-undang yang mengatur hukum di balik pornografi deepfake.
Pertama, mengatur platform tempat konten daring diakses. Undang-Undang Penyiaran diamandemen pada 2023, memungkinkan Otoritas Pengembangan Media Infocomm (IMDA) mengarahkan layanan media sosial sebagai penjaga gerbang dunia maya, memblokir atau menghapus konten mengerikan dalam jangka waktu tertentu, dan mengarahkan mereka untuk mematuhi kode etik daring.
Kedua, kejahatan di dunia analog tetapi dengan elemen digital kini dapat ditargetkan, dicegah, dan dituntut secara lebih efektif. Undang-Undang Bahaya Pidana Daring yang disahkan tahun lalu memberdayakan pihak berwenang untuk mengeluarkan arahan kepada penyedia layanan daring, membatasi paparan pengguna Singapura terhadap konten dan aktivitas kriminal daring.
Ketiga, penghapusan cepat konten berbahaya, prioritas utama bagi korban bullying cyber atau kejahatan daring. Ini merupakan langkah penting bagi para korban untuk memiliki ketegasan dalam situasi traumatis.
Upaya Banyak Negara Lain
Inggris baru-baru ini mengusulkan langkah-langkah untuk menghentikan pembuatan deepfake yang berbahaya sejak awal. Misalnya, pengembang model AI dapat menerapkan filter untuk menghapus jenis data tertentu dari set data pelatihan mereka demi mencegah keluaran konten berbahaya.
Sebuah model juga dapat dilatih untuk menolak permintaan cepat, membuat deepfake berbahaya. Usulan ini menimbulkan tantangan tersendiri, termasuk penegakan hukum terhadap pengembang nakal.
China telah memiliki aturan luas yang mengharuskan materi dimanipulasi memiliki tanda tangan digital, meskipun alat tersebut berpotensi berguna untuk membantu pengguna mengidentifikasi konten yang dihasilkan AI, alat tersebut tidak memberikan rasa aman saat konten pornografi deepfake disebarkan.
(ind/bbs)