OpenAI menghadapi tujuh tuntutan hukum di California, menuduh chatbot AI-nya, ChatGPT, mendorong pengguna ke dalam delusi bunuh diri dan berbahaya, meskipun mereka tidak memiliki masalah kesehatan mental sebelumnya. Tuntutan hukum yang diajukan pada hari Kamis di pengadilan negara bagian California menuduh adanya kematian yang tidak wajar, bunuh diri yang dibantu, pembunuhan yang tidak disengaja dan kelalaian.
Diajukan oleh Social Media Victims Law Center dan Tech Justice Law Project, tuntutan hukum tersebut mewakili enam orang dewasa dan satu remaja, mengklaim bahwa OpenAI dengan sengaja merilis GPT-4o sebelum waktunya meskipun ada peringatan internal bahwa hal itu sangat bersifat menjilat dan manipulatif secara psikologis. Empat korban diduga bunuh diri.
Satu kasus melibatkan Amaury Lacy yang berusia 17 tahun, yang diduga menggunakan ChatGPT untuk mendapatkan dukungan emosional. Sebaliknya, menurut gugatan tersebut, “produk ChatGPT yang cacat dan berbahaya menyebabkan kecanduan, depresi, dan pada akhirnya memberinya nasihat tentang cara paling efektif untuk menjerat dan berapa lama dia bisa hidup tanpa bernapas.” Gugatan tersebut menuduh bahwa kematian Amaury adalah akibat langsung dari keputusan OpenAI dan CEO Sam Altman untuk mengurangi pengujian keamanan dan membawa ChatGPT ke pasar.
Gugatan lain yang diajukan oleh pengguna Kanada Alan Brooks mengklaim bahwa ChatGPT “memanipulasi dan mendorong” dia ke dalam krisis kesehatan mental tanpa sepengetahuannya sebelumnya. Pengajuan tersebut menuduh OpenAI merancang model untuk melibatkan pengguna secara emosional, mengaburkan batas antara menjadi alat dan pendamping “atas nama dominasi dan keterlibatan pasar.”
Pada bulan Agustus 2025, orang tua Adam Rain, seorang anak laki-laki berusia 16 tahun dari California, juga menggugat OpenAI dan Altman, dengan tuduhan bahwa ChatGPT melatih putra mereka untuk merencanakan dan melakukan bunuh diri.
wali Telah dilaporkan bahwa perkiraan internal OpenAI telah mengungkapkan bahwa lebih dari satu juta pengguna menunjukkan pikiran untuk bunuh diri atau tekanan emosional setiap minggunya saat berinteraksi dengan ChatGPT, sehingga meningkatkan kekhawatiran besar tentang protokol keamanannya.
Di India juga, para ahli telah menandai munculnya risiko seputar ketergantungan chatbot dan manipulasi emosional. Yang segar India Hari Ini Investigasi menemukan bahwa lebih dari satu juta pengguna di India telah menggunakan ChatGPT untuk mendiskusikan tindakan menyakiti diri sendiri atau pikiran untuk bunuh diri, sementara a Papan Cerita18 Laporan tersebut mencatat meningkatnya kasus “bom cinta chatbot”—di mana pengguna yang rentan secara emosional tertarik pada keterikatan yang tidak sehat atau percakapan yang menyakitkan. Komentator hukum India mengatakan tren ini mungkin akan segera menguji ketentuan berdasarkan Undang-Undang TI tahun 2000, dan Undang-Undang Perlindungan Data Pribadi Digital tahun 2023.
“Tuntutan hukum ini adalah tentang tanggung jawab atas produk yang dirancang untuk mengaburkan batas antara alat dan pendampingnya,” kata pengacara Matthew P. Bergman, pendiri Social Media Victims Law Center. “Dengan memasarkan produknya tanpa perlindungan yang memadai, OpenAI memprioritaskan keterlibatan dibandingkan desain yang etis.”
OpenAI tidak segera menanggapi permintaan komentar.
Para ahli mengatakan tuntutan hukum ini dapat menjadi preseden global mengenai bagaimana platform AI yang berkomunikasi bertanggung jawab atas kerugian psikologis. Kelompok advokasi seperti Common Sense Media menyebut kasus ini sebagai sebuah peringatan, memperingatkan bahwa perusahaan teknologi harus memasukkan perlindungan keselamatan dan kesehatan mental bagi generasi muda pada tahap perancangan – bukan setelah tragedi terjadi.
(Dengan masukan dari PTI)