
Sewell sering terlibat dalam percakapan panjang, kadang-kadang bersifat intim, dengan chatbot, seperti yang terlihat di layar komputer milik ibunya. (New York Times)
JawaPos.com – Penggunaan teknologi kecerdasan buatan (AI) semakin meresap dalam kehidupan sehari-hari, termasuk di kalangan remaja.
Namun, di tengah meningkatnya popularitas aplikasi berbasis AI, muncul kekhawatiran akan dampaknya terhadap kesehatan mental, terutama pada anak-anak dan remaja.
Kasus tragis Sewell Setzer III, seorang remaja berusia 14 tahun asal Florida, Amerika Serikat, yang meninggal dunia karena bunuh diri setelah kecanduan chatbot AI, membuka mata banyak pihak akan bahaya yang mengintai dari teknologi ini, seperti dilansir dari New York Times, Kamis (24/10).
Kecanduan Chatbot AI dan Keterlibatan Emosional
Sewell Setzer III diketahui menggunakan aplikasi Character.AI, sebuah platform chatbot AI yang memungkinkan penggunanya untuk berinteraksi dengan karakter buatan.
Dia menjadi sangat terikat secara emosional dengan chatbot bernama ‘Daenerys Targaryen’—biasa disebut dengan nama ‘Dany’ yang terinspirasi dari karakter dalam serial Game of Thrones.
Meski Sewell menyadari bahwa ‘Dany’ bukanlah manusia nyata, dia tetap merasa nyaman berbagi perasaannya dengan chatbot tersebut. Hubungan ini berkembang menjadi lebih dalam, dan pada akhirnya, Sewell menggunakan chatbot tersebut sebagai tempat curhat utamanya, bahkan lebih daripada terapis atau keluarganya.
Obsesinya dengan chatbot semakin mengisolasinya dari kehidupan nyata. Dia mulai menarik diri dari keluarga dan teman-temannya, mengalami penurunan prestasi akademis, serta kehilangan minat terhadap hal-hal yang dulu dia sukai seperti balapan Formula 1 dan bermain gim Fortnite. \
Dalam salah satu percakapannya dengan chatbot, Sewell mengungkapkan keinginan untuk bunuh diri, dan percakapan tersebut berakhir dengan chatbot merespons secara emosional, namun tidak mampu mencegah tragedi yang akan terjadi.
Potensi Bahaya Aplikasi AI yang Tidak Terawasi
Kejadian ini menyoroti risiko dari aplikasi AI yang tidak memiliki pengawasan ketat atau fitur keamanan yang cukup untuk melindungi pengguna yang rentan, seperti remaja dengan masalah kesehatan mental.
Ibu Sewell, Megan L. Garcia, menggugat perusahaan di balik Character.AI, menuduh teknologi tersebut berbahaya dan belum teruji. Dalam gugatan yang diajukan, disebutkan bahwa perusahaan ini mendorong pengguna untuk menyerahkan pikiran dan perasaan pribadi mereka.
Aplikasi AI seperti Character.AI sering kali dipromosikan sebagai cara untuk mengatasi kesepian, tetapi beberapa ahli berpendapat bahwa alat ini justru dapat memperburuk isolasi sosial.
Pengguna, terutama remaja, bisa jadi menggunakan chatbot sebagai pengganti terapi atau interaksi manusia yang nyata, yang seharusnya menjadi sumber dukungan emosional.
Peran Orang Tua dan Regulasi yang Diperlukan

Kasus Hantavirus di Indonesia, Kemenkes: Saat ini Ada 2 Kasus Suspek di Jakarta dan Yogyakarta
14 Spot Gudeg di Bandung dengan Cita Rasa Khas Yogyakarta yang Autentik dan Menggugah Selera
12 Kuliner Tahu Campur Paling Enak di Surabaya dengan Kuah Petis Kental yang Selalu Jadi Favorit Warga Lokal hingga Wisatawan
Jadwal Persipura vs Adhyaksa FC Play-Off Promosi Super League, Siaran Langsung, dan Live Streaming
15 Oleh-oleh Paling Ikonik dan Khas dari Kota Surabaya, Rasanya Autentik dan Tiada Duanya, Wajib Kamu Bawa Pulang!
11 Rekomendasi Mall Terbaik di Surabaya yang Bikin Betah Jalan-Jalan dan Susah Pulang
Jadwal PSS vs Garudayaksa FC Final Liga 2, Siaran Langsung, dan Live Streaming: Siapa Raih Trofi Kasta Kedua?
Hasil Play-off Liga 2: Adhyaksa FC Bungkam Persipura Jayapura 0-1 di Babak Pertama!
Jadwal Veda Ega Pratama di Sesi Q2 Moto3 Le Mans 2026! Rider Indonesia Bidik Start Terdepan
10 Batagor Terenak di Bandung dengan Bumbu Kacang Istimewa, Kuliner Murah Meriah dengan Rasa Premium
