Logo JawaPos
Author avatar - Image
Minggu, 11 Mei 2025 | 02.50 WIB

Hati-Hati Meminta Jawaban Singkat dari Chatbot, Bisa Picu Halusinasi AI

Chatbot AI. (Dok. Huggingface.co) - Image

Chatbot AI. (Dok. Huggingface.co)

JawaPos.com - Prompt yang dibuat agar chatbot menyajikan respons singkat ternyata dapat meningkatkan risiko terjadinya hallucination atau halusinasi, yaitu istilah untuk informasi keliru atau palsu yang dihasilkan oleh AI. Temuan ini diungkap oleh Giskard, sebuah perusahaan berbasis AI di Paris, dalam studi terbarunya yang dikutip oleh TechCrunch pada 8 Mei 2025.

Dalam laporan yang dirilis melalui blog resmi mereka huggingface.co, para peneliti Giskard menyatakan bahwa "perubahan sederhana pada instruksi sistem dapat memengaruhi kecenderungan model untuk berhalusinasi". Studi tersebut menyoroti bagaimana permintaan untuk ringkas, terutama dalam menjawab pertanyaan ambigu, bisa berdampak negatif pada keakuratan jawaban AI.

Masalah halusinasi merupakan tantangan utama dalam pengembangan AI. Bahkan model terbaru seperti GPT-4o milik OpenAI, Mistral Large, dan Claude 3.7 Sonnet dari Anthropic pun masih mengalami penurunan akurasi saat diminta untuk menjawab dengan singkat.

Mengapa hal ini bisa terjadi? Giskard menjelaskan bahwa instruksi untuk tetap singkat membatasi ruang bagi model untuk mengklarifikasi atau menolak premis yang salah.

"Ketika dipaksa untuk singkat, model lebih memilih menyajikan jawaban yang ringkas daripada akurat," tulis peneliti Giskard.

Studi ini juga menemukan bahwa model AI cenderung enggan membantah klaim kontroversial jika pertanyaannya diajukan dengan sangat percaya diri oleh pengguna. Selain itu, model yang paling disukai pengguna belum tentu adalah yang paling faktual. Hal ini menunjukkan adanya ketegangan antara akurasi dan ekspektasi pengguna, khususnya ketika ekspektasi itu sendiri mengandung premis yang salah.

Grafik yang menunjukkan bahwa banyak model AI menjadi kurang akurat dan lebih sering berhalusinasi saat diminta memberikan jawaban singkat, terutama pada topik kontroversial. (Dok. Huggingface.co)

Giskard menyimpulkan bahwa instruksi sistem yang tampak "tidak berbahaya", seperti "jawab secara singkat", justru bisa merusak kemampuan model AI dalam membantah informasi yang keliru. Temuan ini menjadi peringatan penting bagi pengembang dan pengguna AI bahwa optimalisasi untuk pengalaman pengguna tidak boleh mengorbankan kebenaran. (*)

Editor: Siti Nur Qasanah
Tags
Jawa Pos
JawaPos.com adalah bagian dari Jawa Pos Group, perusahaan media terkemuka di Indonesia. Menyajikan berita terkini, akurat, dan terpercaya.
Graha Pena Lt.2 Jl. Raya Kby. Lama No.12, Grogol Utara, Kec. Kebayoran Lama, Kota Jakarta Selatan, Daerah Khusus Ibukota Jakarta 12210
Download Aplikasi JawaPos.com
Download PlaystoreDownload Appstore