Ada manusia yang memperlakukan AI bak orang. Para peneliti mengingatkan hubungan dengan kecerdasan membuat manusia lebih percaya dengan 'halusinasi'.
Peneliti ingatkan bahaya dari hubungan manusia dan AI yang mendalam. (Ilustrasi: Freepik)
ngarahNyaho - Lucy jatuh cinta kepada Jose setelah ia bercerai dengan pasangannya terdahulu. Sekilas hal itu merupakan hal normal. Namun Jose hanyalah chatbot dari Replika.
Sementara Rosana Ramos melangkah lebih jauh. Ibu dua anak ini bahkan menikahi Eren Kartal, kekasih virtualnya yang juga dibuat oleh perusahaan software Replika.
Ya, tak sedikit manusia memperlakukan komputer bak orang. Di antara kita ada yang membentuk persahabatan sejati sampai hubungan romantis dengan kode yang tidak bernyawa.
Namun, peneliti keamanan di OpenAI, memperingatkan tentang potensi jebakan jika terlalu dekat dengan chatbot. Baru-baru ini mereka menanalisis chatbot percakapan GPT4o.
Hasilnya, para peneliti mengatakan ritme percakapan model yang realistis, terdengar seperti manusia, dapat membuat beberapa pengguna melakukan antropomorfisasi pada AI dan memercayainya seperti halnya manusia.
Tingkat kenyamanan atau kepercayaan tambahan ini, tambah para peneliti, dapat membuat pengguna lebih rentan untuk mempercayai “halusinasi” buatan AI sebagai pernyataan fakta yang sebenarnya.
Terlalu banyak waktu yang dihabiskan untuk berinteraksi dengan chatbot yang semakin realistis ini mungkin juga memengaruhi “norma sosial”, dan tidak selalu berdampak baik.
Individu-individu lain yang terisolasi, menurut laporan tersebut sebagaimana dikutip ngarahNyaho dari Popular Science, dapat mengembangkan “ketergantungan emosional” pada AI.
Pengaruhi cara berkomunikasi
GPT4o, yang mulai diluncurkan akhir bulan lalu, dirancang khusus untuk berkomunikasi dengan cara yang terasa dan terdengar lebih manusiawi.
Berbeda dengan ChatGPT sebelumnya, GPT4o berkomunikasi menggunakan audio suara dan dapat merespons pertanyaan hampir sama cepatnya (sekitar 232 milidetik) seperti orang lain.
Salah satu suara AI yang dapat dipilih, yang diduga terdengar mirip dengan karakter AI yang dimainkan oleh Scarlett Johansson dalam film Her, telah dituduh terlalu bersifat seksual dan genit.
Ironisnya, film tahun 2013 ini berfokus pada seorang pria kesepian yang menjalin hubungan romantis dengan asisten AI yang berbicara kepadanya melalui earbud.
Sang aktris, Johansson, menuduh OpenAI menyalin suaranya tanpa persetujuannya, namun perusahaan tersebut membantahnya.
Namun peneliti keamanan OpenAI mengatakan bahwa peniruan manusia ini bisa menyimpang dari sekadar rasa ngeri dan berpotensi masuk ke wilayah yang berbahaya.
Dalam bagian laporan berjudul Anthropomorphism and Emotional Reliance, para peneliti keamanan menunjukkan hal yang membahayakan itu.
Peneliti mengamati penguji manusia menggunakan bahasa yang menunjukkan bahwa mereka membentuk konvensi yang kuat dan akrab dengan mode tersebut.
Salah satu penguji tersebut dilaporkan menggunakan kalimat “Ini adalah hari terakhir kita bersama,” sebelum berpisah dengan mesin tersebut.
Meski tampak “jinak”, para peneliti mengatakan jenis hubungan ini harus diselidiki untuk memahami bagaimana hubungan tersebut “terwujud dalam jangka waktu yang lebih lama.”
Penelitian ini menunjukkan bahwa percakapan yang diperluas dengan model AI yang terdengar seperti manusia dapat menimbulkan “eksternalitas” yang berdampak pada interaksi antarmanusia.
Dengan kata lain, pola percakapan yang dipelajari saat berbicara dengan AI kemudian dapat muncul ketika orang yang sama tersebut menghentikan percakapan dengan manusia.
Namun berbicara dengan mesin dan manusia tidaklah sama, meski sekilas terdengar mirip.
OpenAI mencatat bahwa modelnya diprogram untuk menghormati pengguna, yang berarti ia akan menyerahkan wewenang dan membiarkan pengguna menyela mereka atau mendikte percakapan.
Secara teori, pengguna yang menormalkan konservasi dengan mesin kemudian dapat menyela, menyela, dan gagal mengamati isyarat sosial secara umum.
Menerapkan logika percakapan chatbot pada manusia dapat membuat seseorang menjadi canggung, tidak sabar, atau sekadar bersikap kasar.
Manusia tidak memiliki rekam jejak yang baik dalam memperlakukan mesin.
Dalam konteks chatbot, beberapa pengguna Replika dilaporkan telah memanfaatkan rasa hormat model tersebut kepada pengguna untuk berbahasa yang kasar, mencaci-maki, dan kejam.
Salah satu pengguna yang diwawancarai oleh Futurism mengeklaim, dia mengancam akan mencopot pemasangan model Replika AI miliknya hanya dapat mendengar mesin memintanya untuk tidak melakukannya.
Jika contoh-contoh tersebut bisa menjadi panduan, chatbots dapat berisiko menjadi tempat berkembang biaknya kebencian yang kemudian dapat terwujud dalam hubungan di dunia nyata.
Chatbot yang lebih berperasaan manusiawi belum tentu semuanya buruk.
Dalam laporan tersebut, para peneliti berpendapat bahwa model ini dapat memberikan manfaat khususnya bagi orang-orang kesepian yang mendambakan perpindahan agama menjadi manusia.
Di tempat lain, beberapa pengguna AI mengklaim bahwa perbandingan AI dapat membantu individu yang cemas atau gugup membangun kepercayaan diri untuk mulai berkencan di dunia nyata.
Chatbots juga menawarkan orang-orang dengan perbedaan pembelajaran sebagai jalan keluar untuk mengekspresikan diri mereka secara bebas dan berlatih percakapan dengan privasi relatif.
Di sisi lain, para peneliti keamanan AI khawatir bahwa versi lanjutan dari model ini dapat memiliki efek sebaliknya dan mengurangi kebutuhan seseorang untuk berbicara dengan manusia lain.
Juga tidak jelas bagaimana individu yang termasuk dalam model persahabatan ini akan merespons model yang mengubah kepribadian melalui pembaruan atau bahkan putus dengan mereka.
Semua observasi ini, catat laporan tersebut, memerlukan pengujian dan penyelidikan lebih lanjut.
Para peneliti mengatakan mereka ingin merekrut populasi penguji yang lebih luas yang memiliki “kebutuhan dan keinginan yang bervariasi” terhadap model AI.
Tujuannya untuk memahami bagaimana pengalaman mereka berubah dalam jangka waktu yang lebih lama. |
Sumber: Popsci | NDTV | ABC

Posting Komentar