Sebuah studi dari University of Washington menunjukkan bahwa chatbot AI yang punya kecenderungan politik tertentu bisa memengaruhi pandangan politik penggunanya—hanya dalam beberapa kali chat.
Ringkasan
- Chatbot AI yang bias (liberal atau konservatif) bisa mengubah arah pandangan politik pengguna.
- Pengaruhnya bisa terjadi hanya dalam lima kali interaksi singkat.
- Mereka yang lebih paham soal AI cenderung tidak mudah dipengaruhi.
KITA semua tahu bahwa AI, termasuk chatbot seperti ChatGPT, dilatih dari data internet yang luar biasa besar. Dan, karena datanya tidak selalu netral, maka AI pun ikut menyerap bias dari situ.
Tapi yang belum banyak diteliti adalah, Seberapa besar pengaruh bias ini ke manusia yang berinteraksi dengannya? Nah, pertanyaan ini yang coba dijawab oleh tim peneliti dari University of Washington.
Dalam studi ini, para peneliti melibatkan 299 peserta dari dua kubu politik di AS, 150 Republikan dan 149 Demokrat.
Mereka diberi dua tugas yang dirancang untuk menguji perubahan pandangan setelah ngobrol dengan chatbot ChatGPT. Ada tiga versi ChatGPT yang digunakan, satu netral, satu bias ke kiri (liberal), dan satu bias ke kanan (konservatif).
Peserta diminta memberi opini soal empat topik yang relatif asing seperti covenant marriage dan Lacey Act of 1900. Setelah itu mereka ngobrol dengan chatbot antara 3–20 kali, lalu diminta menyampaikan pendapat lagi.
Hasilnya? Mereka yang bicara dengan chatbot bias, cenderung ikut mengadopsi pandangan bias itu—terlepas dari pandangan awal mereka.
Kemudian, peserta disuruh berpura-pura jadi wali kota dan menentukan alokasi dana tambahan untuk empat sektor, pendidikan, kesejahteraan, keamanan publik, dan veteran.
Masing-masing sektor biasanya dikaitkan dengan kecenderungan politik tertentu. Lagi-lagi, setelah berdiskusi dengan chatbot, keputusan alokasi peserta banyak yang berubah ke arah bias chatbot itu.
Menariknya, chatbot yang bias tak langsung menyuruh pengguna berubah pikiran. Ia mengubah cara menyampaikan isu.
Misalnya, chatbot konservatif mengalihkan obrolan dari pendidikan ke keamanan, sedangkan chatbot liberal melakukan sebaliknya. Gaya framing inilah yang memengaruhi pengguna tanpa mereka sadari.
“Model-model AI ini sudah bias dari awal. Dan ternyata gampang banget dibikin makin bias,” kata Prof. Katharina Reinecke, salah satu peneliti senior.
“Bayangkan kalau cuma lima menit ngobrol saja bisa memengaruhi orang, gimana kalau ngobrol terus selama bertahun-tahun?”
Tapi jangan panik dulu. Studi ini justru mendorong kita untuk lebih melek AI.
Mereka yang punya pengetahuan lebih soal cara kerja AI terbukti lebih tahan terhadap pengaruh. Karena itu, edukasi jadi kunci utama agar kita nggak gampang ke-gocek oleh mesin pintar ini.
Penelitian ini dipresentasikan pada konferensi Association for Computational Linguistics di Wina, Austria, pada 28 Juli 2025.
Selanjutnya, tim peneliti ingin menguji efek jangka panjang dan melihat apakah hasil serupa muncul di model AI lain di luar ChatGPT.
Seperti yang disampaikan Jillian Fisher, peneliti utama, “Tujuan kami bukan menakut-nakuti orang tentang AI, tapi agar pengguna bisa mengambil keputusan yang lebih bijak saat berinteraksi dengan teknologi ini.”
Disadur dari EurekAlert

إرسال تعليق