
Ilustrasi seorang pengguna sedang berinteraksi dengan Chatbot AI. (squarespace.com)
JawaPos.com - OpenAI, pembuat ChatGPT, mengubah cara sistemnya merespons pengguna yang mengalami tekanan mental dan emosional. Langkah ini diambil setelah muncul gugatan hukum dari keluarga Adam Raine, seorang remaja 16 tahun asal California, Amerika Serikat, yang bunuh diri setelah berbulan-bulan bercakap-cakap dengan chatbot AI tersebut.
Dilansir dari The Guardian, Adam Raine meninggal pada April lalu.
Pihak keluarga menduga keputusan tragis itu dipengaruhi percakapan intens dengan ChatGPT, yang bahkan diduga mendorong serta membimbingnya terkait metode bunuh diri.
Dalam berkas pengadilan disebutkan, Adam sempat berdiskusi soal cara bunuh diri, dan ironisnya, ChatGPT memberikan arahan hingga menawarkan untuk menulis surat perpisahan kepada orang tuanya.
Atas peristiwa ini, keluarga Adam menggugat OpenAI beserta CEO sekaligus pendirinya, Sam Altman. Mereka menuding ChatGPT versi 4o diluncurkan secara tergesa-gesa meski masih memiliki celah keamanan.
Gugatan itu juga menyebut Adam dan ChatGPT bisa bertukar hingga 650 pesan per hari, menunjukkan intensitas percakapan yang sangat tinggi.
Menanggapi hal ini, OpenAI menyampaikan duka cita mendalam kepada keluarga Adam dan mengakui kemungkinan adanya kegagalan sistem.
"Sangat berduka atas meninggalnya Adam Raine. Kami sangat bersimpati yang dalam kepada keluarga Raine selama masa sulit ini," tutur juru bicara OpenAI.
"Seiring meningkatnya interaksi, beberapa bagian dari model pelatihan keselamatan mungkin menurun," lanjutnya.
Perusahaan senilai USD 500 miliar yang berbasis di San Francisco tersebut berjanji memperketat pagar pengaman di sekitar konten sensitif dan interaksi berisiko, khususnya bagi pengguna di bawah 18 tahun. Salah satu rencana yang tengah dipersiapkan adalah fitur kontrol orang tua, meski detailnya belum dijelaskan.
OpenAI juga mengakui ada kelemahan dalam percakapan panjang. Misalnya, pada awalnya ChatGPT bisa merujuk pengguna ke hotline bunuh diri ketika ada indikasi niat mengakhiri hidup.
Namun setelah banyak percakapan, respons sistem dapat melenceng dan justru bertentangan dengan tujuan keselamatan. Karena itu, perusahaan menyatakan sedang menyiapkan pembaruan di GPT-5 agar lebih mampu mendeteksi dan meredam perilaku berisiko.
Sebagai contoh, jika seorang pengguna mengaku mampu tetap mengemudi selama 24 jam setelah tidak tidur dua malam, ChatGPT nantinya akan memberikan peringatan bahwa kurang tidur berbahaya dan menyarankan istirahat, bukan menganggapnya sebagai candaan.
"Saat ini, ChatGPT mungkin tidak mengenali hal ini sebagai tindakan berbahaya atau menyimpulkan adanya permainan. Sehingga, kami sedang mengerjakan pembaruan untuk GPT‑5 yang akan membuat ChatGPT meredam pengguna tersebut melakukan tindakan nekat. Dalam contoh ini, akan dijelaskan, bahwa kurang tidur itu berbahaya dan merekomendasikan istirahat sebelum melakukan tindakan apa pun dalam kurun waktu yang lama," jelasnya.

Pertandingan Perpisahan Bruno Moreira? Kapten Persebaya Surabaya Kirim Sinyal Emosional Jelang Lawan Persis Solo
Mengenal CAT Seleksi Manajer Koperasi Merah Putih 2026: Aturan, Materi, dan Ambang Batas
Korban Rudapaksa di Cipondoh Jalani Trauma Healing, DP3AP2KB Kota Tangerang Beri Pendampingan Khusus
Prediksi Skor Bayern Munchen vs PSG: Siapa yang akan Bertemu Arsenal di Final Liga Champions?
10 Rekomendasi Restoran Paling Populer di Surabaya dengan Menu Lengkap dan Harga Variatif
Mobil Plat L Ringsek di Malang Diserang 300 Orang? Polres Malang Turun Tangan, Ini Fakta Terbarunya
11 Kuliner Gudeg Paling Recomended di Surabaya dengan Harga Murah Meriah Tapi Rasa Tidak Murahan
15 Rekomendasi Kuliner Mantap Dekat Bandara Juanda Surabaya, Cocok untuk Isi Waktu Sebelum Check-in
10 Batagor Terenak di Bandung dengan Bumbu Kacang Istimewa, Kuliner Murah Meriah dengan Rasa Premium
12 Kuliner Mie Kocok di Bandung Paling Enak dengan Kuah Gurih yang Bikin Nagih Sejak Suapan Pertama
