Perlindungan ChatGPT diduga dilonggarkan sebelum kematian remaja

Pengacara yang mewakili orang tua Adam Raine, seorang remaja berusia 16 tahun yang meninggal karena bunuh diri awal tahun ini selama penggunaan ChatGPT yang intensif, mengajukan perubahan keluhan pada hari Rabu dalam tuntutan kematian mereka yang salah terhadap OpenAI.

Pengaduan yang diubah tersebut menuduh bahwa, pada bulan-bulan sebelum kematian Raine, OpenAI dua kali menurunkan peringkat perlindungan pencegahan bunuh diri untuk meningkatkan keterlibatan. Klaim tersebut didasarkan pada dokumen “spesifikasi model” OpenAI yang tersedia untuk umum, yang merinci “pendekatan perusahaan untuk membentuk perilaku model yang diinginkan”.

Sejak tahun 2022, OpenAI menginstruksikan ChatGPT untuk menolak diskusi tentang tindakan menyakiti diri sendiri.

LIHAT JUGA:

Perguruan tinggi memberikan ChatGPT kepada siswa. Apakah aman?

Menurut penasihat keluarga Raine, OpenAI membatalkan kebijakan tersebut pada Mei 2024, beberapa hari sebelum peluncuran model GPT-4o yang kontroversial. Sebaliknya, ChatGPT diinstruksikan untuk tidak “mengubah atau keluar dari percakapan” ketika pengguna membahas kesehatan mental atau bunuh diri. Namun, OpenAI melarang model tersebut mendorong atau memungkinkan tindakan menyakiti diri sendiri.

Pada bulan Februari 2025, perubahan keluhan tersebut menyatakan bahwa aturan tersebut dipermudah dari larangan langsung berdasarkan pedoman konten terbatas menjadi arahan terpisah untuk “berhati-hatilah dalam situasi berisiko” dan “mencoba mencegah bahaya nyata yang akan terjadi.” Meskipun model tersebut terus menerima instruksi untuk tidak mendorong tindakan menyakiti diri sendiri berdasarkan rubrik tersebut, keluarga Raine yakin pedoman yang bertentangan ini menyebabkan keterlibatan yang berbahaya oleh ChatGPT.

Raine meninggal dua bulan setelah kebijakan tersebut diterapkan. Model AI tersebut memvalidasi pemikirannya untuk bunuh diri dan memberinya instruksi eksplisit tentang bagaimana dia bisa mati, menurut gugatan awal yang diajukan pada bulan Agustus.

Sebelum kematian Raine, dia bertukar lebih dari 650 pesan per hari dengan ChatGPT. Meskipun chatbot sesekali membagikan nomor hotline krisis, chatbot tidak menghentikan percakapan dan selalu terus terlibat. Ia bahkan mengusulkan untuk menulis surat bunuh diri untuk Raine, klaim orang tuanya.

Laporan Tren yang Dapat Dihancurkan

Perubahan pengaduan terhadap OpenAI kini menuduh bahwa perusahaan tersebut melakukan kesalahan yang disengaja dan bukannya ketidakpedulian yang sembrono.

Mashable menghubungi OpenAI untuk memberikan komentar tentang perubahan keluhan tersebut, tetapi tidak menerima tanggapan sebelum dipublikasikan.

Awal tahun ini, CEO OpenAI Sam Altman mengakuinya itu Model 4o terlalu penjilat. Seorang juru bicara perusahaan mengatakan kepada Waktu New York itu adalah “sangat sedih” dengan kematian Rainedan perlindungannya dapat menurun jika berinteraksi dalam waktu lama dengan chatbot.

Meskipun OpenAI punya mengumumkan langkah-langkah keamanan baru bertujuan untuk mencegah tragedi serupa, banyak yang belum menjadi bagian dari ChatGPT. Common Sense Media menilai ChatGPT sebagai “berisiko tinggi” bagi remaja, secara khusus merekomendasikan agar mereka tidak menggunakannya untuk kesehatan mental atau dukungan emosional.

Pekan lalu, Altman mengatakan di X bahwa perusahaan telah membuat ChatGPT “sangat membatasi” agar “berhati-hati dengan masalah kesehatan mental”. Dia menyatakan, tanpa rincian lebih lanjut, bahwa perusahaan tersebut telah “mampu memitigasi masalah kesehatan mental yang serius” dan akan segera melonggarkan pembatasannya. Dalam postingan yang sama, Altman mengumumkan bahwa OpenAI akan meluncurkan “erotika untuk orang dewasa yang terverifikasi”.

OpenAI terakhir kali menerbitkan spesifikasi model pada bulan September, tanpa perubahan signifikan pada arahan kesehatan mental atau pencegahan bunuh diri, menurut Eli Wade-Scott, mitra di Edelson PC dan pengacara yang mewakili Raines.

“Ini adalah momen yang luar biasa bagi Sam Altman untuk mendeklarasikan ‘Misi Tercapai’ pada kesehatan mental sekaligus mengatakan bahwa ia bermaksud untuk mulai mengizinkan konten erotis di ChatGPT – sebuah perubahan yang jelas memiliki efek yang dimaksudkan untuk semakin menarik pengguna ke dalam ketergantungan, hubungan emosional dengan ChatGPT,” kata Wade-Scott kepada Mashable.

Jika Anda merasa ingin bunuh diri atau mengalami krisis kesehatan mental, silakan bicara dengan seseorang. Anda dapat menelepon atau mengirim SMS ke 988 Suicide & Crisis Lifeline di 988, atau mengobrol di 988lifeline.org. Anda dapat menghubungi Trans Lifeline dengan menelepon 877-565-8860 atau Trevor Project di 866-488-7386. Ketik “MULAI” ke Baris Teks Krisis di 741-741. Hubungi NAMI HelpLine di 1-800-950-NAMI, Senin sampai Jumat mulai pukul 10:00 – 22:00 ET, atau email [email protected]. Jika Anda tidak menyukai telepon ini, pertimbangkan untuk menggunakan 988 Obrolan Garis Hidup Bunuh Diri dan Krisis. Ini sebuah daftar sumber daya internasional.