Pakar forensik digital Hany Farid menguraikan strategi mendeteksi penipuan digital yang bisa jadi penyelamat di tengah banjir manipulasi visual ini.
Ringkasan
- Deepfake makin sulit dikenali bahkan oleh mata ahli; risikonya menyasar publik, politik, hingga keamanan.
- Solusi mencakup watermark, pembatasan prompt AI, identifikasi pengguna, dan literasi digital.
- Ilmuwan diminta berpikir etis sebelum merilis teknologi yang rawan disalahgunakan.
DEEPFAKE, konten palsu buatan AI yang tampil meyakinkan, sedang menjamur, dan bisa dipakai untuk merusak reputasi, menipu, bahkan menyebar hoaks politik.
Hany Farid, profesor dari University of California, Berkeley, dalam artikelnya di PNAS Nexus menegaskan, kita perlu strategi cerdas untuk melawan ledakan konten palsu ini.
Menurut data Sensity AI, jumlah video deepfake meningkat dari 7.964 pada tahun 2019 menjadi lebih dari 85.000 pada 2022, dan diperkirakan naik drastis seiring berkembangnya model AI seperti GPT-4 dan Sora.
Bahkan, riset dari MIT menemukan bahwa manusia hanya mampu mengenali deepfake dengan akurasi sekitar 65%, dan itu pun menurun drastis jika kualitas video tinggi.
Yang lebih berbahaya, teknologi ini bukan cuma digunakan untuk lucu-lucuan di media sosial.
Deepfake telah digunakan untuk menyebarkan propaganda politik di Myanmar dan Ukraina, penipuan bisnis dengan menyamar sebagai CEO, dan membuat konten seksual non-konsensual terhadap tokoh publik maupun remaja biasa.
Farid menawarkan beragam solusi. Pertama, ia mendorong penerapan watermark digital dan metadata tersembunyi yang wajib disematkan pada konten buatan AI. Ini seperti "sidik jari digital" yang bisa dilacak.
Kedua, platform pembuat AI harus membatasi jenis perintah (prompt) yang bisa diberikan, misalnya melarang pembuatan gambar seksual atau meniru wajah tokoh publik tanpa izin.
Ia juga menekankan pentingnya verifikasi identitas pembuat konten dan peran aktif platform seperti YouTube dan TikTok dalam menyaring konten berbahaya.
Tanpa moderasi, algoritma justru mempercepat penyebaran hoaks.
Poin paling penting dari Farid adalah pendidikan literasi digital. Sejak dini, masyarakat harus diajarkan cara membedakan fakta dan rekayasa, memahami bagaimana teknologi bekerja, dan tidak mudah terprovokasi oleh konten viral.
Di akhir artikelnya, Farid mengajak para ilmuwan AI untuk menahan diri.
Sebelum merilis teknologi baru, tanyakan: Apakah ini bisa disalahgunakan? Bila jawabannya ya, maka perlu dipertimbangkan untuk dibatasi, dimodifikasi, bahkan dihentikan.
Etika harus jadi fondasi inovasi, bukan sekadar efek samping.
Hal ini sejalan dengan seruan UNESCO dan European Commission yang mendorong prinsip "Ethics by Design" dalam pengembangan AI—yakni, keamanan dan tanggung jawab harus ditanamkan sejak awal.
Di zaman ketika mata mudah ditipu, kebenaran jadi ilusi. Farid memperingatkan, hanya dengan kombinasi teknologi, kebijakan, pendidikan, dan tanggung jawab moral, kita bisa tetap waras di tengah banjir tipu-tipu digital.
Sumber utama dari artikel di Tech Xplore.

إرسال تعليق