Dalam postingan blog hari Senin, ChatGPT memuji peningkatan yang telah dilakukan model defaultnya, GPT-5, dalam mengidentifikasi dan merespons respons pengguna yang meresahkan, termasuk keinginan untuk bunuh diri. Meskipun upaya perlindungan baru dan pengenalan psikiater dalam membantu melatih GPT-5 mengarah pada peningkatan respons AI terhadap petunjuk kesehatan mental, postingan blog tersebut juga menunjukkan beberapa angka yang mungkin akan membuat kita terkejut.
Saat menjelaskan kemampuan GPT-5 untuk mendeteksi masalah kesehatan mental yang serius, seperti psikosis dan mania, postingan tersebut mencatat bahwa percakapan pengguna yang mengganggu dengan chatbot “jarang terjadi”.
“Meskipun, seperti disebutkan di atas, percakapan ini sulit dideteksi dan diukur mengingat betapa jarangnya percakapan tersebut, analisis awal kami memperkirakan bahwa sekitar 0,07% pengguna aktif pada minggu tertentu dan 0,01% pesan menunjukkan kemungkinan tanda-tanda darurat kesehatan mental terkait dengan psikosis atau mania.”
Persentasenya tampaknya kecil, namun ChatGPT memiliki 800 juta pengguna mingguan, menurut Sam Altman, CEO OpenAI, pemilik ChatGPT. Altman membuat pengumuman menakjubkan itu awal bulan ini di DevDay OpenAI.
Sam Altman: ChatGPT akan menjadi lebih 'ramah' lagi, bahkan secara erotis
Jika angka Altman benar, maka itu setara dengan 560.000 pengguna ChatGPT yang menunjukkan tanda-tanda psikosis atau mania, dan 80.000 pesan mereka menunjukkan keadaan darurat kesehatan mental, menurut perkiraan situs tersebut.
Kecepatan Cahaya yang Dapat Dihancurkan
ChatGPT terus bekerja dengan model-modelnya untuk mengidentifikasi dengan lebih baik tanda-tanda tindakan menyakiti diri sendiri dan mengarahkan orang-orang tersebut ke sumber daya, seperti hotline bunuh diri atau teman atau anggota keluarga mereka sendiri. Postingan blog tersebut terus menunjukkan bahwa percakapan ChatGPT mengenai tindakan menyakiti diri sendiri jarang terjadi, namun memperkirakan bahwa “0,15% pengguna yang aktif pada minggu tertentu melakukan percakapan yang menyertakan indikator eksplisit tentang potensi perencanaan atau niat untuk bunuh diri dan 0,05% pesan berisi indikator eksplisit atau implisit tentang ide atau niat untuk bunuh diri.”
Dengan 800 juta pengguna mingguan, ini setara dengan 1,2 juta pengguna ChatGPT yang terlibat dalam percakapan dengan AI tentang bunuh diri pada minggu tertentu, dan 400.000 pesan dari pengguna yang menunjukkan indikasi niat bunuh diri, baik langsung maupun tidak langsung.
“Bahkan persentase yang sangat kecil dari basis pengguna kami yang besar mewakili sejumlah besar orang, dan itulah sebabnya kami menganggap pekerjaan ini sangat serius,” kata juru bicara OpenAI kepada Mashable, seraya menambahkan bahwa perusahaan yakin basis pengguna ChatGPT yang berkembang mencerminkan masyarakat luas, di mana gejala kesehatan mental dan tekanan emosional “ada secara universal.”
Juru bicara tersebut juga menegaskan kembali bahwa angka-angka yang diperoleh perusahaan hanyalah perkiraan dan “angka yang kami berikan dapat berubah secara signifikan seiring dengan perkembangan yang kami pelajari lebih lanjut.”
OpenAI saat ini menghadapi tuntutan hukum dari orang tua Adam Raine, seorang anak berusia 16 tahun yang meninggal karena bunuh diri awal tahun ini saat penggunaan ChatGPT yang berat. Dalam pengaduan hukum yang baru-baru ini diubah, pasangan Raines menuduh OpenAI dua kali menurunkan peringkat perlindungan pencegahan bunuh diri untuk meningkatkan keterlibatan pada bulan-bulan sebelum kematian putra mereka.