Studi: Dampak AI dalam Membuat Tuduhan Berbohong
Menuduh seseorang berbohong bukanlah perkara yang mudah dilakukan oleh kebanyakan orang, terutama karena norma sosial yang mengharuskan kehati-hatian dalam menyalahkan orang lain.
Dampak Kehadiran AI
Namun, sebuah penelitian yang dipublikasikan dalam jurnal iScience pada 27 Juni mengungkap bahwa kehadiran AI dapat mengubah dinamika ini secara signifikan. Para peneliti menemukan bahwa orang cenderung lebih mudah menuduh orang lain berbohong ketika AI memberikan prediksi tuduhan.
Nils Köbis, seorang ilmuwan perilaku dari Universitas Duisburg-Essen di Jerman, yang juga merupakan penulis senior penelitian ini, menyatakan, “Diperlukan keberanian dan bukti yang kuat bagi seseorang untuk secara terbuka menuduh orang lain berbohong. Namun penelitian kami menunjukkan bahwa kehadiran AI dapat menjadi alasan bagi orang untuk menghindari tanggung jawab atas konsekuensi dari tuduhan tersebut.”
Penelitian ini melibatkan 986 peserta yang diminta untuk menulis dua deskripsi, satu yang benar dan satu yang salah, mengenai rencana mereka pada akhir pekan. Tim peneliti kemudian menggunakan data ini untuk melatih algoritma AI yang dapat mengidentifikasi kebenaran pernyataan dengan akurasi 66%, jauh lebih tinggi daripada keakuratan rata-rata manusia.
Selanjutnya, lebih dari 2.000 orang menjadi juri untuk menilai apakah suatu pernyataan benar atau salah. Mereka dibagi menjadi beberapa kelompok, di antaranya “baseline”, “dipaksa”, “diblokir”, dan “pilihan”.
Hasil Penelitian
Hasil penelitian menunjukkan bahwa dalam kelompok baseline, di mana peserta membuat keputusan tanpa bantuan AI, akurasi mereka mencapai 46% dalam mengidentifikasi kebenaran pernyataan. Hanya 19% dari peserta tersebut yang menuduh bahwa pernyataan yang mereka baca salah, padahal mereka tahu bahwa 50% dari pernyataan tersebut memang salah.
Namun, dalam kelompok yang dipaksa, di mana peserta selalu menerima prediksi AI sebelum membuat keputusan, lebih dari sepertiga dari mereka menuduh bahwa pernyataan tersebut salah. Angka ini jauh lebih tinggi dibandingkan dengan kelompok baseline dan kelompok yang diblokir, di mana peserta dapat memilih untuk menerima atau menolak prediksi AI.
Menariknya, jika AI memprediksi suatu pernyataan benar, hanya 13% peserta yang menilai pernyataan tersebut salah. Namun, ketika AI memprediksi bahwa pernyataan salah, lebih dari 40% peserta cenderung menuduh bahwa pernyataan tersebut memang salah. Selain itu, sebanyak 84% dari peserta yang meminta dan menerima prediksi AI, akhirnya mengikuti prediksi tersebut dan menuduh bahwa pernyataan tersebut salah ketika AI memberikan prediksi demikian.
“Temuan ini menunjukkan bahwa ketika seseorang memiliki akses terhadap algoritma semacam itu, mereka cenderung mengandalkannya dan bahkan dapat mengubah perilaku mereka berdasarkan prediksi AI. Hal ini memiliki implikasi yang penting, terutama dalam konteks pengambilan keputusan yang sensitif seperti di bidang kebijakan publik,” ujar Köbis.
Baca juga : Kekerasan Masa Kecil dan Implikasinya pada Kesehatan Dewasa
Köbis juga menyarankan agar penggunaan teknologi AI dalam konteks seperti ini perlu dipertimbangkan dengan hati-hati oleh para pembuat kebijakan, mengingat potensi kesalahan dan penguatan bias yang dapat terjadi.
“Dalam era di mana hype seputar kekuatan AI sangat besar, banyak yang percaya bahwa algoritma ini benar-benar objektif dan dapat diandalkan. Namun, kami menemukan bahwa penggunaan AI tidak selalu berjalan dengan baik,” tambah Köbis.
Artikel ini menyoroti perlunya kehati-hatian dalam mengadopsi teknologi AI dalam pengambilan keputusan penting, serta pentingnya memahami implikasi sosial dari penggunaan teknologi ini dalam interaksi manusia sehari-hari.