Logo JawaPos
Author avatar - Image
Selasa, 2 September 2025 | 16.40 WIB

ChatGPT Digugat Terkait Kasus Bunuh Diri Remaja, OpenAI Janjikan Perlindungan Lebih Ketat

Ilustrasi seorang pengguna sedang berinteraksi dengan Chatbot AI. (squarespace.com) - Image

Ilustrasi seorang pengguna sedang berinteraksi dengan Chatbot AI. (squarespace.com)

JawaPos.com - OpenAI, pembuat ChatGPT, mengubah cara sistemnya merespons pengguna yang mengalami tekanan mental dan emosional. Langkah ini diambil setelah muncul gugatan hukum dari keluarga Adam Raine, seorang remaja 16 tahun asal California, Amerika Serikat, yang bunuh diri setelah berbulan-bulan bercakap-cakap dengan chatbot AI tersebut.

Dilansir dari The Guardian, Adam Raine meninggal pada April lalu.

Pihak keluarga menduga keputusan tragis itu dipengaruhi percakapan intens dengan ChatGPT, yang bahkan diduga mendorong serta membimbingnya terkait metode bunuh diri.

Dalam berkas pengadilan disebutkan, Adam sempat berdiskusi soal cara bunuh diri, dan ironisnya, ChatGPT memberikan arahan hingga menawarkan untuk menulis surat perpisahan kepada orang tuanya.

Atas peristiwa ini, keluarga Adam menggugat OpenAI beserta CEO sekaligus pendirinya, Sam Altman. Mereka menuding ChatGPT versi 4o diluncurkan secara tergesa-gesa meski masih memiliki celah keamanan.

Gugatan itu juga menyebut Adam dan ChatGPT bisa bertukar hingga 650 pesan per hari, menunjukkan intensitas percakapan yang sangat tinggi.

Menanggapi hal ini, OpenAI menyampaikan duka cita mendalam kepada keluarga Adam dan mengakui kemungkinan adanya kegagalan sistem.

"Sangat berduka atas meninggalnya Adam Raine. Kami sangat bersimpati yang dalam kepada keluarga Raine selama masa sulit ini," tutur juru bicara OpenAI.

"Seiring meningkatnya interaksi, beberapa bagian dari model pelatihan keselamatan mungkin menurun," lanjutnya.

Perusahaan senilai USD 500 miliar yang berbasis di San Francisco tersebut berjanji memperketat pagar pengaman di sekitar konten sensitif dan interaksi berisiko, khususnya bagi pengguna di bawah 18 tahun. Salah satu rencana yang tengah dipersiapkan adalah fitur kontrol orang tua, meski detailnya belum dijelaskan.

OpenAI juga mengakui ada kelemahan dalam percakapan panjang. Misalnya, pada awalnya ChatGPT bisa merujuk pengguna ke hotline bunuh diri ketika ada indikasi niat mengakhiri hidup.

Namun setelah banyak percakapan, respons sistem dapat melenceng dan justru bertentangan dengan tujuan keselamatan. Karena itu, perusahaan menyatakan sedang menyiapkan pembaruan di GPT-5 agar lebih mampu mendeteksi dan meredam perilaku berisiko.

Sebagai contoh, jika seorang pengguna mengaku mampu tetap mengemudi selama 24 jam setelah tidak tidur dua malam, ChatGPT nantinya akan memberikan peringatan bahwa kurang tidur berbahaya dan menyarankan istirahat, bukan menganggapnya sebagai candaan.

"Saat ini, ChatGPT mungkin tidak mengenali hal ini sebagai tindakan berbahaya atau menyimpulkan adanya permainan. Sehingga, kami sedang mengerjakan pembaruan untuk GPT‑5 yang akan membuat ChatGPT meredam pengguna tersebut melakukan tindakan nekat. Dalam contoh ini, akan dijelaskan, bahwa kurang tidur itu berbahaya dan merekomendasikan istirahat sebelum melakukan tindakan apa pun dalam kurun waktu yang lama," jelasnya.

Editor: Siti Nur Qasanah
Tags
Jawa Pos
JawaPos.com adalah bagian dari Jawa Pos Group, perusahaan media terkemuka di Indonesia. Menyajikan berita terkini, akurat, dan terpercaya.
Graha Pena Lt.2 Jl. Raya Kby. Lama No.12, Grogol Utara, Kec. Kebayoran Lama, Kota Jakarta Selatan, Daerah Khusus Ibukota Jakarta 12210
Download Aplikasi JawaPos.com
Download PlaystoreDownload Appstore