Seorang peneliti dari University of Bath, Inggris, yakin model bahasa besar (LLM) tidak mengancam eksistensi manusia.
ngarahNyaho - ChatGPT dan model bahasa besar (large language model/LLM) lainnya, diklaim memperoleh kemampuan tertentu tanpa dilatih secara khusus mengenai hal tersebut.
Kemampuan ini, yang disebut sebagai kemampuan baru (emerging ability), telah menjadi kekuatan pendorong dalam diskusi mengenai potensi dan risiko model bahasa.
Nah, dalam makalah baru mereka, peneliti dari University of Bath, Harish Tayyar Madabushi dan rekannya menyajikan teori baru yang menjelaskan kemampuan yang muncul itu.
Madabushi mempertimbangkan potensi faktor perancu sebelum sampai pada teorinya itu. Ia dan rekan-rekannya juga secara ketat memperkuat teori ini melalui lebih dari 1.000 eksperimen.
Temuan mereka menunjukkan bahwa kemampuan yang muncul tidak benar-benar muncul, namun merupakan hasil dari kombinasi pembelajaran dalam konteks, memori model, dan pengetahuan linguistik.
“Narasi yang ada bahwa AI jenis ini merupakan ancaman bagi umat manusia menghambat adopsi dan pengembangan teknologi ini secara luas," kata Madabushi seperti dikutip dari Sci.News.
Menurut dia, narasi itu justru mengalihkan perhatian dari isu-isu nyata yang memerlukan fokus kita.
Madabushi dan rekannya menjalankan eksperimen untuk menguji kemampuan LLM dalam menyelesaikan tugas yang belum pernah dilakukan model sebelumnya, yang disebut kemampuan muncul.
Sebagai ilustrasi, LLM dapat menjawab pertanyaan tentang situasi sosial tanpa pernah dilatih atau diprogram secara eksplisit untuk melakukannya.
Penelitian sebelumnya menyatakan bahwa ini adalah produk dari model yang 'mengetahui' tentang situasi sosial.
Namun, Madabushi menunjukkan, itu sebenarnya adalah hasil dari model yang menggunakan kemampuan LLM yang terkenal untuk menyelesaikan tugas berdasarkan beberapa contoh yang diberikan kepada mereka.
Kemampuan tersebut diketahui sebagai ‘in-context learning’ (ICL) atau 'pembelajaran dalam konteks'.
Melalui ribuan percobaan, tim menunjukkan, kombinasi kemampuan LLM untuk mengikuti instruksi, memori dan kemahiran linguistik dapat menjelaskan kemampuan dan keterbatasan yang ditunjukkan oleh LLM.
“Kekhawatirannya adalah ketika model semakin besar, mereka akan mampu memecahkan masalah baru yang saat ini tidak dapat kita prediksi," kata Madabushi.
"(Hal itu) menimbulkan ancaman bahwa model yang lebih besar ini mungkin memperoleh kemampuan berbahaya termasuk penalaran dan perencanaan.
“Hal ini telah memicu banyak diskusi, misalnya, pada AI Safety Summit tahun lalu di Bletchley Park, dan kami dimintai komentarnya," lanjut dia.
"Tetapi, penelitian kami menunjukkan bahwa ketakutan bahwa suatu model akan hilang dan melakukan sesuatu sepenuhnya tidak terduga, inovatif, dan berpotensi berbahaya adalah tidak valid.
“Kekhawatiran terhadap ancaman eksistensial yang ditimbulkan oleh LLM tidak hanya terjadi pada mereka yang bukan ahli saja, dan hal ini telah diungkapkan oleh beberapa peneliti AI terkemuka di seluruh dunia.”
Namun, Madabushi dan rekan penulis berpendapat bahwa ketakutan ini tidak berdasar karena tes mereka dengan jelas menunjukkan tidak adanya kemampuan penalaran kompleks yang muncul di LLM.
“Meskipun penting untuk mengatasi potensi penyalahgunaan AI, seperti pembuatan berita palsu dan peningkatan risiko penipuan, masih terlalu dini untuk membuat peraturan berdasarkan persepsi ancaman yang ada.
“Yang penting, hal ini berarti bagi pengguna akhir bahwa mengandalkan LLM untuk menafsirkan dan melakukan tugas kompleks yang memerlukan penalaran rumit tanpa instruksi eksplisit kemungkinan besar merupakan sebuah kesalahan.
“Sebaliknya, pengguna cenderung mendapat manfaat dengan secara eksplisit menentukan apa yang harus dilakukan model dan memberikan contoh jika memungkinkan untuk semua tugas, kecuali tugas yang paling sederhana."
Namun demikian, Profesor Iryna Gurevych dari Technical University of Darmstadt menambahkan, bukan berarti kecerdasan buatan atau AI tidak ada memberikan ancaman sama sekali.
“Penelitian di masa depan harus fokus pada risiko lain yang ditimbulkan oleh model tersebut, seperti potensinya digunakan untuk menghasilkan berita palsu,” kata dia. |
Sumber: Sci.News

Posting Komentar