AI Baru untuk Bongkar Deepfake Suara

Peneliti Australia mengembangkan teknik AI baru bernama RAIS yang mampu mengenali deepfake suara dengan lebih akurat sekaligus beradaptasi menghadapi teknik penipuan yang terus berubah.


Peneliti Australia mengembangkan teknik AI baru bernama RAIS yang mampu mengenali deepfake suara dengan lebih akurat sekaligus beradaptasi menghadapi teknik penipuan yang terus berubah.Ilustrasi dibuat oleh AI berdasarkan foto di laman CSIRO


Ringkasan 

  • RAIS membuat deteksi deepfake suara lebih akurat dan tidak mudah “lupa” teknik penipuan lama.
  • Sistem ini menyimpan contoh audio penting dan beragam untuk melatih ulang AI secara efisien.
  • Metode baru ini lebih unggul dari teknik lain dan siap menghadapi ancaman deepfake yang makin canggih.


DEEPFAKE suara kini menjadi salah satu ancaman paling licik di dunia digital. Dari penipuan telepon, rekayasa sosial, hingga pembobolan sistem biometrik berbasis suara, kemampuannya untuk meniru manusia semakin menakutkan. 


Peneliti dari CSIRO, Federation University Australia, dan RMIT University pun meluncurkan teknologi baru bernama Rehearsal with Auxiliary-Informed Sampling (RAIS).


CSIRO dalam lamannya menyebut sebuah terobosan yang dirancang untuk menjawab ancaman audio deepfake yang berkembang pesat.


Seiring kemampuan generator suara berbasis AI makin halus, detektor tradisional justru sering kedodoran. 


Banyak model lama hanya mengenali penipuan berdasarkan teknik masa lalu, padahal deepfake generasi baru bisa terdengar sangat berbeda. 


Biasanya, ketika model dipaksa mempelajari sampel deepfake terbaru, ia justru melupakan pola lama. Fenomena ini disebut catastrophic forgetting, dan di sinilah RAIS masuk sebagai solusi.


Menurut Dr Kristen Moore dari CSIRO’s Data61, RAIS mampu “mengajari” AI untuk mengenali teknik baru tanpa menghapus pengetahuan lama. 


Caranya? Dengan otomatis memilih dan menyimpan sejumlah kecil sampel audio dari masa lalu, yang beragam, representatif, dan mencakup ciri-ciri tersembunyi yang sering tak terdengar oleh manusia. 


Sampel-sampel ini kemudian dipakai kembali sebagai “latihan ulang” ketika AI mempelajari ancaman baru.


Sistem ini tidak hanya memberi label “real” atau “fake” pada audio, tetapi juga menghasilkan label tambahan (auxiliary labels) yang menangkap sifat-sifat akustik lebih dalam. 


Pendekatan ini membuat AI lebih cerdas dalam memilih contoh mana yang perlu disimpan untuk belajar jangka panjang.


Dalam pengujian, RAIS menunjukkan performa yang mengungguli metode lain, dengan rerata tingkat kesalahan hanya 1,95% pada lima rangkaian pengujian berurutan. 


Hebatnya, ia tetap kompetitif meski menggunakan memori buffer kecil, hal penting untuk implementasi dunia nyata seperti perbankan, keamanan nasional, dan platform komunikasi online.


Kasus nyata semakin menegaskan kebutuhan akan sistem semacam ini. Awal tahun 2025 di Italia, suara Menteri Pertahanan dipalsukan untuk meminta “tebusan” €1 juta kepada para pengusaha, beberapa hampir tertipu. 


Seperti dikutip dari BBC, contoh lain tersebar dari Amerika Serikat hingga Asia, di mana penipuan berbasis suara telah menyebabkan kerugian jutaan dolar.


Falih Gozi Febrinanto, salah satu penulis studi, menekankan bahwa RAIS mengurangi risiko ‘lupa’ sambil meningkatkan kemampuan adaptasi. 


Ini penting karena dunia deepfake bergerak cepat; hari ini suara robotik, besok bisa menjadi rekaman yang hampir sempurna.


RAIS bukan hanya solusi teknis, tetapi pilar baru dalam keamanan digital. Dengan kemampuan belajar berkelanjutan, sistem ini membuka jalan bagi detector deepfake yang lebih tahan masa depan—dan lebih sulit dikelabui.


Disadur dari CSIRO.


Post a Comment

أحدث أقدم