
Ilustrasi seorang pengguna sedang berinteraksi dengan Chatbot AI. (squarespace.com)
JawaPos.com - OpenAI, pembuat ChatGPT, mengubah cara sistemnya merespons pengguna yang mengalami tekanan mental dan emosional. Langkah ini diambil setelah muncul gugatan hukum dari keluarga Adam Raine, seorang remaja 16 tahun asal California, Amerika Serikat, yang bunuh diri setelah berbulan-bulan bercakap-cakap dengan chatbot AI tersebut.
Dilansir dari The Guardian, Adam Raine meninggal pada April lalu.
Pihak keluarga menduga keputusan tragis itu dipengaruhi percakapan intens dengan ChatGPT, yang bahkan diduga mendorong serta membimbingnya terkait metode bunuh diri.
Dalam berkas pengadilan disebutkan, Adam sempat berdiskusi soal cara bunuh diri, dan ironisnya, ChatGPT memberikan arahan hingga menawarkan untuk menulis surat perpisahan kepada orang tuanya.
Atas peristiwa ini, keluarga Adam menggugat OpenAI beserta CEO sekaligus pendirinya, Sam Altman. Mereka menuding ChatGPT versi 4o diluncurkan secara tergesa-gesa meski masih memiliki celah keamanan.
Gugatan itu juga menyebut Adam dan ChatGPT bisa bertukar hingga 650 pesan per hari, menunjukkan intensitas percakapan yang sangat tinggi.
Menanggapi hal ini, OpenAI menyampaikan duka cita mendalam kepada keluarga Adam dan mengakui kemungkinan adanya kegagalan sistem.
"Sangat berduka atas meninggalnya Adam Raine. Kami sangat bersimpati yang dalam kepada keluarga Raine selama masa sulit ini," tutur juru bicara OpenAI.
"Seiring meningkatnya interaksi, beberapa bagian dari model pelatihan keselamatan mungkin menurun," lanjutnya.
Perusahaan senilai USD 500 miliar yang berbasis di San Francisco tersebut berjanji memperketat pagar pengaman di sekitar konten sensitif dan interaksi berisiko, khususnya bagi pengguna di bawah 18 tahun. Salah satu rencana yang tengah dipersiapkan adalah fitur kontrol orang tua, meski detailnya belum dijelaskan.
OpenAI juga mengakui ada kelemahan dalam percakapan panjang. Misalnya, pada awalnya ChatGPT bisa merujuk pengguna ke hotline bunuh diri ketika ada indikasi niat mengakhiri hidup.
Namun setelah banyak percakapan, respons sistem dapat melenceng dan justru bertentangan dengan tujuan keselamatan. Karena itu, perusahaan menyatakan sedang menyiapkan pembaruan di GPT-5 agar lebih mampu mendeteksi dan meredam perilaku berisiko.
Sebagai contoh, jika seorang pengguna mengaku mampu tetap mengemudi selama 24 jam setelah tidak tidur dua malam, ChatGPT nantinya akan memberikan peringatan bahwa kurang tidur berbahaya dan menyarankan istirahat, bukan menganggapnya sebagai candaan.
"Saat ini, ChatGPT mungkin tidak mengenali hal ini sebagai tindakan berbahaya atau menyimpulkan adanya permainan. Sehingga, kami sedang mengerjakan pembaruan untuk GPT‑5 yang akan membuat ChatGPT meredam pengguna tersebut melakukan tindakan nekat. Dalam contoh ini, akan dijelaskan, bahwa kurang tidur itu berbahaya dan merekomendasikan istirahat sebelum melakukan tindakan apa pun dalam kurun waktu yang lama," jelasnya.

Dana Desa Dialihkan untuk Koperasi Merah Putih, Pembangunan Desa di Bantul Jalan dengan Skema Lain
Wisata Kuliner Kabupaten Malang: 7 Makanan Khas yang Legendaris, Unik dan Autentik untuk Food Lovers
Link Pengumuman Hasil Seleksi Administrasi Manajer Koperasi Merah Putih yang Sudah Diumumkan
12 Restoran Sunda Paling Enak di Jakarta, Tempat Makan dengan Menu Tradisional Khas dari Tanah Pasundan
14 Rekomendasi Kuliner Depok untuk Keluarga, Tempat Makan Nyaman dengan Menu Beragam
7 Rekomendasi Kuliner Lontong Balap Paling Enak di Surabaya, Wajib Dicoba Sekali Seumur Hidup!
Sempat Di-blacklist Koramil, Pembangunan Koperasi Merah Putih di Tuban Dikawal Babinsa
Kecelakaan Kereta dan KRL di Bekasi Timur, KAI Fokus Evakuasi Para Korban
11 Rekomendasi Gudeg Terenak di Jakarta, Kuliner Manis yang Tak Kalah Legit Seperti di Jogjakarta
Terkendala Lahan dan Faktor Teknis, 7 Koperasi Merah Putih di Sukoharjo Jawa Tengah Belum Dibangun
