OpenAI Berbagi Data Pengguna ChatGPT dengan Pikiran Bunuh Diri, Psikiatri

OpenAI Berbagi Data Pengguna ChatGPT dengan Pikiran Bunuh Diri, Psikiatri

OpenAI telah merilis perkiraan baru mengenai jumlah pengguna ChatGPT yang menunjukkan potensi tanda-tanda darurat kesehatan mental, termasuk mania, psikosis, atau pikiran untuk bunuh diri.

Perusahaan mengatakan bahwa sekitar 0,07% pengguna ChatGPT yang aktif pada minggu tertentu menunjukkan tanda-tanda bahwa chatbot kecerdasan buatan (AI) mengenali dan merespons percakapan sensitif ini.

Meskipun OpenAI mengatakan kasus-kasus ini “sangat jarang terjadi”, para kritikus mengatakan persentase kecilnya bisa mencapai ratusan ribu orang, karena ChatGPT baru-baru ini mencapai 800 juta pengguna aktif mingguan, menurut bos Sam Altman.

Seiring dengan berkembangnya pengawasan, perusahaan tersebut mengatakan telah membangun jaringan pakar di seluruh dunia untuk memberikan nasihat.

Para ahli tersebut mencakup lebih dari 170 psikiater, psikolog, dan dokter perawatan primer yang telah berpraktik di 60 negara, kata perusahaan itu.

Menurut OpenAI, mereka telah membuat serangkaian tanggapan di ChatGPT untuk mendorong pengguna mencari bantuan di dunia nyata.

Namun sekilas statistik perusahaan ini menimbulkan keheranan di kalangan profesional kesehatan mental.

“Meskipun 0,07% tampak seperti persentase kecil, pada skala populasi dengan jutaan pengguna, sebenarnya jumlah tersebut mungkin sangat sedikit,” kata Dr. Jason Nagata, seorang profesor yang mempelajari penggunaan teknologi di kalangan dewasa muda di Universitas California, San Francisco.

“AI dapat meningkatkan akses terhadap dukungan kesehatan mental, dan mendukung kesehatan mental dalam beberapa cara, namun kita harus menyadari keterbatasannya,” lanjut Dr. Nagata.

Perusahaan juga memperkirakan bahwa 0,15% pengguna ChatGPT melakukan percakapan yang berisi “indikasi jelas kemungkinan rencana atau niat bunuh diri”.

OpenAI mengatakan pembaruan terbaru pada chatbotnya dirancang untuk “merespon dengan aman dan empati terhadap kemungkinan tanda-tanda delirium atau mania” dan untuk mencatat “tanda-tanda tidak langsung dari potensi bahaya diri sendiri atau risiko bunuh diri”.

ChatGPT juga dilatih untuk merutekan ulang percakapan sensitif “yang berasal dari model lain ke model yang dilindungi” dengan membukanya di jendela baru.

Menanggapi pertanyaan BBC mengenai kritik mengenai jumlah orang yang berpotensi terkena dampak, OpenAI mengatakan bahwa persentase kecil pengguna ini adalah jumlah orang yang berarti dan menyatakan bahwa mereka menanggapi perubahan ini dengan serius.

Perubahan ini terjadi ketika OpenAI menghadapi pengawasan hukum yang semakin ketat atas cara OpenAI berinteraksi dengan pengguna ChatGPT.

Dalam salah satu tuntutan hukum paling terkenal yang baru-baru ini diajukan terhadap OpenAI, pasangan California menggugat perusahaan tersebut atas kematian putra remaja mereka, dengan tuduhan bahwa ChatGPT mendorongnya untuk bunuh diri pada bulan April.

Gugatan tersebut diajukan oleh orang tua Adam Raine yang berusia 16 tahun dan merupakan tuntutan hukum pertama yang menuduh OpenAI melakukan kematian yang tidak wajar.

Dalam kasus terpisah, tersangka pembunuhan-bunuh diri pada bulan Agustus di Greenwich, Connecticut, memposting obrolannya selama berjam-jam dengan chatgpt, yang tampaknya memicu delusi tersangka pelaku.

“Chatbots menciptakan ilusi realitas,” kata Profesor Robin Feldman, direktur Institut Hukum dan Inovasi AI di Universitas California Law, seraya menambahkan bahwa semakin banyak pengguna yang kesulitan dengan psikologi AI. “Itu adalah ilusi yang kuat.”

Dia mengatakan OpenAI pantas mendapat pujian karena “berbagi data dan upaya untuk memperbaiki masalah”, namun menambahkan: “Perusahaan dapat menampilkan semua jenis peringatan di layar tetapi orang yang memiliki risiko mental mungkin tidak dapat mendengar peringatan tersebut.”

Tautan Sumber