Penelitian

Pakar Ungkap Kecenderungan Halusinasi pada AI

Advertisements

Platform chatbot berbasis kecerdasan buatan (AI), seperti ChatGPT yang dikembangkan oleh OpenAI, sering kali memberikan jawaban atas berbagai pertanyaan dari pengguna. Namun, satu pertanyaan penting muncul: apakah jawaban tersebut benar atau sekadar asal-asalan? Penelitian menunjukkan bahwa large language models atau LLMs seperti ChatGPT memiliki kecenderungan untuk “berhalusinasi” atau menciptakan jawaban yang tidak akurat.

Temuan Peneliti

Hal ini bukan tanpa alasan. Salah satu contoh menarik adalah ketika sebuah jawaban mengklaim bahwa Jembatan Golden Gate diangkut melalui Mesir pada tahun 2016. Contoh ini menunjukkan bahwa tidak jarang, jawaban yang dihasilkan tidak hanya bermasalah tetapi juga berpotensi berbahaya. Sebuah insiden menarik terjadi di Australia, di mana seorang walikota mengancam akan menuntut OpenAI setelah ChatGPT secara keliru mengklaim bahwa dia mengaku bersalah dalam skandal penyuapan yang besar. Kasus ini menyoroti risiko nyata dari informasi yang salah yang dapat disebarkan oleh AI.

Peneliti juga menemukan bahwa halusinasi pada LLM dapat dimanfaatkan untuk menyebarkan kode berbahaya kepada pengembang perangkat lunak yang tidak curiga. LLM sering memberikan saran yang buruk dalam hal kesehatan mental dan medis, seperti klaim bahwa konsumsi anggur dapat “mencegah kanker.” Kecenderungan untuk menghasilkan “fakta” yang salah ini dikenal sebagai halusinasi, yang terjadi akibat cara kerja dan pelatihan LLM saat ini.

Model AI generatif tidak memiliki kecerdasan nyata; mereka adalah sistem statistik yang hanya memprediksi kata, gambar, ucapan, musik, atau data lainnya berdasarkan pola yang mereka pelajari dari dataset yang luas. Sebagian besar jawaban yang diberikan AI tergantung pada kualitas dan akurasi informasi yang mereka pelajari dari sumber-sumber publik di internet. Makin akurat data yang digunakan sebagai contoh, semakin baik hasil yang dihasilkan oleh model.

Sebastian Berns, seorang peneliti Ph.D. di Queen Mary University of London, menjelaskan, “Kerangka kerja pelatihan LLM saat ini melibatkan penyembunyian, atau ‘masking’, kata-kata sebelumnya sebagai konteks.” Ia menambahkan, “Ini secara konseptual mirip dengan menggunakan teks prediktif di iOS dan terus menekan salah satu kata yang disarankan berikutnya.” Meskipun pendekatan berbasis probabilitas ini berfungsi dengan baik pada skala besar dan menghasilkan teks yang masuk akal, tetap saja, hasilnya tidak selalu dapat diandalkan.

Potensi LLM untuk Berhalusinasi

Vu Ha, seorang peneliti dan insinyur terapan di Allen Institute for Artificial Intelligence, menegaskan bahwa LLM “memang akan selalu berhalusinasi.” Namun, Ha percaya bahwa ada langkah-langkah konkret yang bisa diambil untuk mengurangi fenomena ini, tergantung pada cara LLM dilatih dan digunakan. “Pertimbangkan sistem penjawab pertanyaan,” ujarnya. “Kita bisa merekayasa sistem ini agar memiliki akurasi tinggi dengan mengkurasi basis pengetahuan yang berkualitas untuk pertanyaan dan jawaban, dan menghubungkan basis pengetahuan ini dengan LLM untuk memberikan jawaban yang akurat melalui proses pencarian.”

Ha membandingkan dua jenis LLM: satu yang memiliki basis pengetahuan “berkualitas tinggi” dan satu lagi dengan kurasi data yang kurang cermat. Meskipun setiap sistem berbasis LLM berpotensi untuk berhalusinasi, masih menjadi pertanyaan apakah manfaatnya lebih besar daripada kerugian yang ditimbulkan akibat halusinasi tersebut.

Baca juga : Stop Taruh HP di Bawah Bantal Saat Tidur: Efeknya Ngeri!

Selain itu, Berns menyebutkan teknik lain yang telah digunakan dengan beberapa keberhasilan untuk mengurangi halusinasi pada LLM, yaitu pembelajaran dari umpan balik manusia (RLHF). Metode ini diperkenalkan oleh OpenAI pada tahun 2017 dan melibatkan pelatihan LLM, diikuti dengan pengumpulan informasi tambahan untuk melatih model dan menyempurnakan hasilnya melalui RLHF.

Dalam proses RLHF, sejumlah petunjuk dari kumpulan data yang telah ditentukan sebelumnya dilewatkan melalui LLM untuk menghasilkan teks baru. OpenAI telah memanfaatkan metode ini untuk melatih beberapa modelnya, termasuk GPT-4. Namun, meskipun RLHF menunjukkan hasil yang positif, Berns mengingatkan bahwa metode ini tidak sempurna.

Kondisi ini menunjukkan bahwa meskipun AI memiliki potensi luar biasa, tantangan dalam akurasi dan keandalan jawaban masih menjadi isu yang perlu diatasi. Dengan pemahaman yang lebih baik tentang cara kerja dan batasan LLM, kita dapat terus mengembangkan teknologi ini menjadi lebih efektif dan dapat diandalkan dalam memberikan informasi yang bermanfaat.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *