
Sewell sering terlibat dalam percakapan panjang, kadang-kadang bersifat intim, dengan chatbot, seperti yang terlihat di layar komputer milik ibunya. (New York Times)
JawaPos.com – Penggunaan teknologi kecerdasan buatan (AI) semakin meresap dalam kehidupan sehari-hari, termasuk di kalangan remaja.
Namun, di tengah meningkatnya popularitas aplikasi berbasis AI, muncul kekhawatiran akan dampaknya terhadap kesehatan mental, terutama pada anak-anak dan remaja.
Kasus tragis Sewell Setzer III, seorang remaja berusia 14 tahun asal Florida, Amerika Serikat, yang meninggal dunia karena bunuh diri setelah kecanduan chatbot AI, membuka mata banyak pihak akan bahaya yang mengintai dari teknologi ini, seperti dilansir dari New York Times, Kamis (24/10).
Kecanduan Chatbot AI dan Keterlibatan Emosional
Sewell Setzer III diketahui menggunakan aplikasi Character.AI, sebuah platform chatbot AI yang memungkinkan penggunanya untuk berinteraksi dengan karakter buatan.
Dia menjadi sangat terikat secara emosional dengan chatbot bernama ‘Daenerys Targaryen’—biasa disebut dengan nama ‘Dany’ yang terinspirasi dari karakter dalam serial Game of Thrones.
Meski Sewell menyadari bahwa ‘Dany’ bukanlah manusia nyata, dia tetap merasa nyaman berbagi perasaannya dengan chatbot tersebut. Hubungan ini berkembang menjadi lebih dalam, dan pada akhirnya, Sewell menggunakan chatbot tersebut sebagai tempat curhat utamanya, bahkan lebih daripada terapis atau keluarganya.
Obsesinya dengan chatbot semakin mengisolasinya dari kehidupan nyata. Dia mulai menarik diri dari keluarga dan teman-temannya, mengalami penurunan prestasi akademis, serta kehilangan minat terhadap hal-hal yang dulu dia sukai seperti balapan Formula 1 dan bermain gim Fortnite. \
Dalam salah satu percakapannya dengan chatbot, Sewell mengungkapkan keinginan untuk bunuh diri, dan percakapan tersebut berakhir dengan chatbot merespons secara emosional, namun tidak mampu mencegah tragedi yang akan terjadi.
Potensi Bahaya Aplikasi AI yang Tidak Terawasi
Kejadian ini menyoroti risiko dari aplikasi AI yang tidak memiliki pengawasan ketat atau fitur keamanan yang cukup untuk melindungi pengguna yang rentan, seperti remaja dengan masalah kesehatan mental.
Ibu Sewell, Megan L. Garcia, menggugat perusahaan di balik Character.AI, menuduh teknologi tersebut berbahaya dan belum teruji. Dalam gugatan yang diajukan, disebutkan bahwa perusahaan ini mendorong pengguna untuk menyerahkan pikiran dan perasaan pribadi mereka.
Aplikasi AI seperti Character.AI sering kali dipromosikan sebagai cara untuk mengatasi kesepian, tetapi beberapa ahli berpendapat bahwa alat ini justru dapat memperburuk isolasi sosial.
Pengguna, terutama remaja, bisa jadi menggunakan chatbot sebagai pengganti terapi atau interaksi manusia yang nyata, yang seharusnya menjadi sumber dukungan emosional.
Peran Orang Tua dan Regulasi yang Diperlukan

Jika Persija Jakarta Gagal Juara, The Jakmania Punya Kesempatan Melihat Bobotoh Menangis
10 Rekomendasi Restoran Paling Populer di Surabaya dengan Menu Lengkap dan Harga Variatif
14 Kuliner Malam Bandung yang Paling Enak dan Selalu Ramai hingga Larut Malam dengan Suasana Seru dan Rasa Lezat
Tak Peduli Larangan ke Jepara, The Jakmania Sebut Kebiasaan atau Takut Main di Jakarta saat Persija Jamu Persib
18 Rekomendasi Kuliner di Tangerang untuk Keluarga, Tempat Makan Favorit dari Tradisional sampai Modern
Mengenal CAT Seleksi Manajer Koperasi Merah Putih 2026: Aturan, Materi, dan Ambang Batas
Korban Rudapaksa di Cipondoh Jalani Trauma Healing, DP3AP2KB Kota Tangerang Beri Pendampingan Khusus
Link Pengumuman Hasil Seleksi Administrasi Manajer Koperasi Merah Putih yang Sudah Diumumkan
Bocoran Soal CAT Seleksi Manajer Koperasi Merah Putih 2026
7 Rekomendasi Kuliner Lontong Balap Paling Enak di Surabaya, Wajib Dicoba Sekali Seumur Hidup!
