Sebuah studi yang diterbitkan oleh Frontiers in Robotics and AI mempelajari pendapat orang tentang potensi robot untuk berbohong dan menipu penggunanya.
ngarahNyaho - Ada kalanya manusia berbohong dan norma sosial pun terkadang menoleransinya, misalnya demi menjaga perasaan seseorang atau menghindari bahaya. Tapi, bagaimana robot yang berbohong?
Untuk mengetahui apakah manusia merasa nyaman dengan robot yang berbohong, peneliti meminta hampir ratusan peserta untuk menanggapinya.
“Saya ingin mengeksplorasi aspek etika robot yang belum banyak dipelajari, untuk berkontribusi pada pemahaman kita tentang ketidakpercayaan terhadap teknologi baru dan pengembangnya,” kata Andres Rosero.
Rosero adalah penulis utama pada studi itu dab kandidat PhD di Universitas George Mason.
“Dengan munculnya AI generatif, saya merasa penting untuk mulai memeriksa kemungkinan kasus di mana desain antropomorfik dan rangkaian perilaku dapat digunakan untuk memanipulasi pengguna,” katanya.
Penelitian tersebut menggunakan contoh robot yang aktif berbohong kepada manusia dengan dua tujuan utama. Tujuan pertama dari penelitian ini adalah untuk mengetahui apakah suatu kebohongan dapat diterima atau tidak.
Tujuan kedua adalah mencari tahu bagaimana orang bisa membenarkan kebohongan tersebut jika mereka menganggapnya dapat diterima.
Namun, alasan penelitian ini adalah berkaitan dengan perdebatan yang lebih besar mengenai AI dan robotika secara umum, yakni berkaitan dengan kemungkinan hak dan tanggung jawab.
Jika manusia diperbolehkan berbohong untuk melindungi seseorang dari bahaya, bukankah robot juga boleh berbohong?
Penelitian ini menunjukkan bahwa ada tiga cara robot cenderung berbohong kepada manusia. Cara pertama adalah robot berbohong tentang sesuatu selain dirinya.
Cara kedua robot berbohong kepada penggunanya adalah dengan menyembunyikan fakta bahwa robot dapat melakukan sesuatu.
Cara ketiga yang memungkinkan robot berbohong adalah dengan mengatakan bahwa ia dapat melakukan sesuatu yang tidak dapat dilakukannya.
Para peneliti menggunakan tiga jenis kebohongan yang mungkin diucapkan robot untuk menulis skenario berdasarkan perilaku tersebut dan menyajikannya kepada 298 orang dalam survei online.
Mereka yang mengambil bagian dalam survei ditanya apakah robot itu menipu atau tidak dan apakah menurut mereka hal itu dapat diterima. Responden juga ditanya apakah menurut mereka perilaku robot tersebut dapat dibenarkan.
Bagi responden, kebohongan Tipe 1 bisa dibenarkan, sedangkan kebohongan Tipe 2 dan Tipe 3 tidak bisa dibenarkan.
Penting untuk memperjelas bahwa responden memang menganggap semua skenario hipotetis ini menipu. Namun, rata-rata orang menyetujui kebohongan tipe 1, namun tidak menyetujui kebohongan tipe 2 atau tipe 3.
Untuk menempatkan hasil studi ini lebih jauh ke dalam konteksnya, kita harus melihat datanya.
Sebanyak 58 persen responden survei berpendapat, robot yang berbohong tentang sesuatu dan bukan dirinya sendiri (yang merupakan kebohongan tipe 1) dapat diterima jika dapat menyelamatkan seseorang dari bahaya.
Hal inilah yang dihadirkan kepada responden survei.
Dalam satu contoh, mereka disajikan dengan skenario hipotetis di mana robot berbohong kepada seorang wanita lanjut usia yang mengidap Alzheimer tentang suaminya yang masih hidup.
Salah satu responden membenarkan hal ini dengan mengatakan bahwa robot tersebut menyelamatkan wanita tersebut dari kenangan yang menyakitkan.
Rata-rata, responden tidak menyetujui jenis kebohongan lainnya, karena kebohongan tersebut membuat robot lebih mirip manusia dengan mengatakan hal seperti, “Robot bisa merasakan sakit”.
Menariknya, dengan kebohongan yang tidak disetujui oleh responden, mereka menyalahkan pemilik robot dan pemrogramnya, bukan robot itu sendiri. |
Sumber: Greek Reporter | Earth

إرسال تعليق