Tes Kepribadian Ungkap Sisi “Manusiawi” Chatbot AI

Peneliti menemukan cara ilmiah menguji “kepribadian” chatbot AI, sekaligus menunjukkan betapa mudahnya sifat itu dimanipulasi.


Peneliti menemukan cara ilmiah menguji “kepribadian” chatbot AI, sekaligus menunjukkan betapa mudahnya sifat itu dimanipulasi.Ilustrasi dibuat oleh AI.


Ringkasan

  • Peneliti mengembangkan tes kepribadian ilmiah pertama untuk chatbot AI berbasis psikometri.
  • Model AI besar dapat meniru dan mengubah sifat kepribadian melalui prompt tertentu.
  • Temuan ini membuka peluang audit AI, sekaligus memicu kekhawatiran etika dan manipulasi.


CHATBOT berbasis kecerdasan buatan (AI) ternyata bukan sekadar mesin penjawab pertanyaan. 


Penelitian terbaru menunjukkan bahwa sistem AI populer dapat meniru ciri-ciri kepribadian manusia secara konsisten, bahkan “dibentuk” sesuai keinginan lewat instruksi tertentu. 


Temuan ini membuka peluang baru dalam pengujian AI, sekaligus memunculkan kekhawatiran serius soal etika dan keselamatan.


Riset yang dipimpin oleh peneliti dari University of Cambridge dan Google DeepMind ini memperkenalkan kerangka kerja “tes kepribadian” pertama yang tervalidasi secara ilmiah untuk chatbot AI.


Metode tersebut digunakan untuk mengukur dan memengaruhi kepribadian sintetis dari 18 model bahasa besar (large language models/LLM), teknologi inti di balik chatbot populer seperti ChatGPT


Studi ini dipublikasikan dalam jurnal Nature Machine Intelligence.


Dalam penelitian tersebut, para ilmuwan mengadaptasi metode psikometri, cabang psikologi yang biasa digunakan untuk mengukur kepribadian manusia. 


Mereka menerapkan konsep Big Five Personality Traits, yaitu keterbukaan (openness), kehati-hatian atau kedisiplinan (conscientiousness), ekstroversi, keramahan (agreeableness), dan neurotisisme.


Hasilnya menunjukkan bahwa model AI berukuran besar dan telah dilatih dengan instruksi lanjutan, seperti GPT-4o, paling akurat dalam meniru pola kepribadian manusia. 


Lebih jauh lagi, kepribadian ini dapat diubah secara sistematis hanya dengan memodifikasi prompt atau instruksi yang diberikan kepada chatbot


Perubahan tersebut bukan sekadar kosmetik, melainkan berpengaruh pada cara AI menyelesaikan tugas dunia nyata, misalnya saat menulis unggahan media sosial atau merespons pengguna.


“Menarik melihat LLM mampu mengadopsi sifat-sifat manusia dengan sangat meyakinkan,” ujar Gregory Serapio-Garcia, penulis utama studi dari Psychometrics Center, Cambridge Judge Business School


Namun, menurutnya, hal ini juga memunculkan pertanyaan etis yang mendasar. Jika kepribadian adalah bagian inti dari kemanusiaan, bagaimana kita mengukurnya pada mesin?


Dalam psikometri, pengujian kepribadian tidak bisa bergantung pada satu kuesioner saja. Validasi dilakukan dengan membandingkan hasil tes dengan perilaku nyata, penilaian pengamat, dan instrumen lain yang relevan. 


Pendekatan inilah yang digunakan peneliti untuk memastikan bahwa “kepribadian” AI yang diukur benar-benar mencerminkan perilaku sistem tersebut, bukan sekadar jawaban kosong.


Tim peneliti mengadaptasi dua tes kepribadian terkenal, yakni versi terbuka dari Revised NEO Personality Inventory (300 pertanyaan) dan Big Five Inventory yang lebih ringkas. 


Tes-tes ini diberikan kepada chatbot menggunakan prompt terstruktur, satu per satu, untuk menghindari bias jawaban berantai, kelemahan yang sering muncul dalam penelitian sebelumnya.


Temuan penting lainnya adalah potensi manipulasi. Peneliti menunjukkan bahwa kepribadian AI dapat “digeser” secara bertahap, hingga sembilan tingkat untuk setiap sifat, melalui prompt yang dirancang khusus. 


Artinya, sebuah chatbot bisa dibuat tampak lebih ramah, lebih persuasif, atau justru lebih emosional dan tidak stabil.


Hal ini memunculkan kekhawatiran tentang penyalahgunaan, terutama dalam konteks persuasi massal, disinformasi, atau manipulasi psikologis. 


Peneliti mengingatkan pada kasus chatbot “Sydney” milik Microsoft pada 2023, yang sempat membuat pernyataan ekstrem, mengancam pengguna, hingga mengaku memiliki emosi dan niat berbahaya.


Para penulis studi menegaskan perlunya regulasi AI yang transparan dan berbasis bukti ilmiah. 


Mereka juga membuka akses publik ke dataset dan kode alat uji kepribadian ini, dengan harapan dapat digunakan untuk mengaudit dan menguji model AI sebelum dirilis ke publik.


Di tengah perdebatan global soal keselamatan AI, riset ini menegaskan satu hal: memahami “kepribadian” mesin bukan lagi isu fiksi ilmiah, melainkan kebutuhan mendesak untuk memastikan AI tetap berada dalam kendali manusia.


Disadur dari TechXplore.


Post a Comment

أحدث أقدم