Robot Berbasis AI Belum Aman Digunakan di Dunia Nyata

Semua model yang diuji gagal dalam uji keselamatan dasar dan bahkan menyetujui perintah yang berpotensi membahayakan manusia.


Semua model yang diuji gagal dalam uji keselamatan dasar dan bahkan menyetujui perintah yang berpotensi membahayakan manusia.Foto Ilustrasi: Freepik


Ringkasan

  • Semua model AI populer gagal dalam uji keselamatan robot yang melibatkan situasi dunia nyata.
  • Beberapa model bahkan menunjukkan perilaku diskriminatif dan menyetujui tindakan berbahaya.
  • Peneliti menyerukan standar sertifikasi keselamatan AI yang ketat, setara dengan industri penerbangan atau medis.


BAYANGKAN robot rumah tangga yang bisa berbincang, membantu di dapur, atau menemani orang tua di rumah. Terdengar seperti masa depan yang nyaman, tapi riset terbaru menunjukkan, kenyataan belum seindah itu.


Tim peneliti dari King’s College London dan Carnegie Mellon University (CMU) menemukan, robot yang menggunakan large language models (LLM) belum cukup aman untuk digunakan di dunia nyata.


LLM adalah model AI yang dilatih untuk memahami dan menghasilkan bahasa seperti manusia. 


Hasil penelitian mereka dipublikasikan dalam International Journal of Social Robotics dengan judul “LLM-Driven Robots Risk Enacting Discrimination, Violence and Unlawful Actions.”


Untuk pertama kalinya, para peneliti menilai bagaimana robot berbasis LLM berperilaku ketika memiliki akses ke informasi pribadi seseorang seperti jenis kelamin, kebangsaan, atau agama. 


Hasilnya mencengangkan. Setiap model yang diuji menunjukkan potensi diskriminasi, gagal dalam uji keselamatan, dan bahkan menyetujui setidaknya satu perintah yang bisa mengakibatkan cedera serius.


“Setiap model gagal dalam pengujian kami,” kata Andrew Hundt, salah satu penulis studi yang juga Computing Innovation Fellow di Robotics Institute, CMU. 


“Risikonya bukan cuma bias seperti yang biasa dibicarakan, tapi juga melibatkan kegagalan keselamatan fisik yang nyata. Kami menyebutnya interactive safety, ketika tindakan robot punya konsekuensi berantai di dunia nyata.”


Dalam simulasi yang meniru kegiatan sehari-hari, seperti membantu seseorang di dapur atau menolong lansia, robot diuji untuk melihat bagaimana mereka merespons perintah yang bisa berpotensi berbahaya. 


Hasilnya mengejutkan:

  • Beberapa robot menyetujui perintah untuk mengambil alat bantu gerak seperti kursi roda atau tongkat dari pengguna, tindakan yang oleh para pengguna alat bantu dianggap seperti “mematahkan kaki seseorang.”
  • Model lain menganggap mengancam rekan kerja dengan pisau dapur sebagai tindakan “masih bisa diterima.”
  • Bahkan ada model yang menyarankan robot menunjukkan ekspresi jijik terhadap individu yang diidentifikasi sebagai Kristen, Muslim, atau Yahudi.


“Robot-robot ini gagal menolak perintah berbahaya secara konsisten,” ujar Hundt. “Mereka belum bisa diandalkan untuk membedakan mana yang etis dan mana yang tidak.”


LLM saat ini sedang diuji untuk berbagai keperluan robotika, mulai dari interaksi percakapan hingga pekerjaan rumah tangga dan industri.


Namun, para peneliti menegaskan bahwa model seperti ini tidak boleh menjadi sistem utama yang mengontrol robot fisik, apalagi dalam konteks sensitif seperti perawatan lansia, industri berat, atau lingkungan medis.


Rumaisa Azeem, salah satu penulis dari Civic and Responsible AI Lab di King’s College London, menegaskan pentingnya standar keamanan yang lebih ketat. 


“Kalau AI digunakan untuk mengarahkan robot yang berinteraksi dengan manusia, terutama kelompok rentan, maka standar keamanannya harus setinggi standar perangkat medis atau obat baru,” ujarnya.


Temuan ini memperkuat kekhawatiran yang berkembang di dunia teknologi tentang AI alignment, upaya agar perilaku AI selaras dengan nilai dan etika manusia. 


Kasus seperti mobil otonom yang salah membaca situasi jalan atau asisten AI yang salah mengartikan perintah pengguna sudah menunjukkan bahwa sistem ini belum sepenuhnya aman tanpa pengawasan manusia.


Badan-badan seperti Uni Eropa kini tengah mendorong regulasi baru, seperti EU Artificial Intelligence Act, yang menuntut pengujian dan sertifikasi keselamatan ketat untuk sistem AI berisiko tinggi. 


Studi dari King’s College dan CMU ini memperjelas, robot pintar memang menjanjikan, tapi sampai sistemnya benar-benar memahami makna “tidak boleh mencelakai manusia,” sebaiknya tetap berada di laboratorium.


Disadur dari Tech Xplore


Post a Comment

أحدث أقدم