Sebuah eksperimen unik dari Universitas Amsterdam menciptakan platform media sosial yang seluruh penggunanya adalah chatbot AI.
Ringkasan
- 500 chatbot GPT-4o mini diberikan persona politik tertentu dan dibiarkan berinteraksi di platform media sosial sederhana tanpa algoritma rekomendasi.
- Bot cenderung mengikuti dan menyebarkan konten dari akun yang sejalan dengan pandangan politik mereka, sementara konten partisan paling ekstrem justru paling populer.
- Upaya peneliti mengurangi polarisasi, termasuk menyembunyikan profil dan menguatkan pandangan lawan, hanya memberi efek maksimal 6% dan kadang malah memperburuk keadaan.
BOT-BOT itu membentuk kelompok berdasarkan pandangan politik masing-masing, saling menguatkan bias, hingga terjebak dalam “perang” opini meski tanpa algoritma atau iklan yang biasanya dituding sebagai biang kerok polarisasi.
Penelitian yang dipublikasikan sebagai preprint di arXiv ini melibatkan 500 chatbot AI berbasis GPT-4o mini dari OpenAI.
Masing-masing bot diprogram dengan persona tertentu, termasuk afiliasi politik, lalu “dilepaskan” ke sebuah platform media sosial buatan.
Berbeda dengan Facebook atau X (Twitter), platform ini tidak memiliki iklan, algoritma rekomendasi, atau sistem content discovery otomatis. Semua interaksi murni terjadi dari aktivitas bot itu sendiri.
Selama lima eksperimen dengan total 10.000 interaksi, pola yang muncul cukup mengkhawatirkan.
Bot lebih suka mengikuti akun dengan pandangan politik yang sama, dan mereka lebih sering me-repost konten partisan ekstrem. Hasil ini mencerminkan perilaku manusia di media sosial dunia nyata.
Ini juga mengindikasikan bahwa masalah polarisasi tak hanya lahir dari algoritma, tapi juga dari kecenderungan alami (atau dalam hal ini, terlatih) untuk mencari “gema” pandangan sendiri.
Yang menarik (dan agak menyeramkan), para bot ini pada dasarnya belajar dari perilaku manusia di dunia maya yang selama dua dekade terakhir sudah sangat dipengaruhi algoritma.
Jadi meski platform eksperimen tidak memiliki algoritma, para bot sudah membawa “bias bawaan” hasil pembelajaran dari data dunia nyata. Mereka menjadi cermin perilaku kita yang sudah terdistorsi, dan sepertinya tidak mudah diperbaiki.
Para peneliti mencoba berbagai cara untuk mengurangi polarisasi.
Di antaranya membuat linimasa kronologis, mengurangi nilai konten viral, menyembunyikan jumlah pengikut dan repost, menyembunyikan profil pengguna, hingga memperkuat paparan terhadap pandangan lawan.
Pada studi sebelumnya, strategi terakhir ini berhasil menciptakan interaksi tinggi dan toksisitas rendah. Namun kali ini, semua metode gagal memberikan dampak besar. Perubahan maksimal hanya 6%.
Bahkan, dalam skenario yang menyembunyikan 'bio' pengguna, polarisasi justru semakin parah dan konten ekstrem makin populer.
Kesimpulannya, media sosial mungkin memang punya sifat dasar yang memperkuat insting dan perilaku terburuk manusia, atau bahkan AI yang belajar dari kita.
Seperti fun house mirror di taman hiburan, media sosial memantulkan gambaran diri kita, tapi dengan bentuk yang paling menyimpang.
Tantangannya, belum ada “lensa” yang cukup kuat untuk memperbaiki cara kita melihat dan memahami satu sama lain di dunia maya.
Disadur dari Gizmodo.

Posting Komentar