Jutaan Pengguna ChatGPT Tanya soal Bunuh Diri Tiap Minggu
OpenAI mencatat lebih dari satu juta pengguna ChatGPT membicarakan isu bunuh diri di platform AI ini setiap minggu. Porsinya 0,15% dari total pengguna aktif mingguan 800 juta.
Data OpenAI per 27 Oktober juga menunjukkan, ratusan ribu pengguna ChatGPT ketergantungan emosional dengan platform AI ini. Mereka juga menunjukkan gejala psikosis atau mania.
Dikutip dari TechCrunch pada Selasa (28/10), OpenAI bekerja sama dengan lebih dari 170 ahli kesehatan mental guna memperbaiki cara ChatGPT merespons pengguna dengan masalah psikologis.
GPT-5 disebut akan mampu merespons isu kesehatan mental secara lebih tepat. Dalam pengujian internal, model bahasa besar alias large language model (LLM) terbaru ini mencatatkan tingkat kesesuaian 91% dengan standar perilaku yang diinginkan perusahaan, meningkat dari 77% pada versi sebelumnya.
Hasilnya pengujian GPT-5 di balik ChatGPT sebagai berikut:
Psikosis dan Mania
- GPT-5 mampu mengurangi kesalahan respons hingga 65% pada percakapan yang menyinggung gejala berat seperti psikosis dan mania.
- Sekitar 0,07% pengguna mingguan dan 0,01% pesan menunjukkan tanda-tanda gangguan mental serius.
- Dalam uji terhadap 1.000 percakapan, GPT-5 mencapai 92% akurasi sesuai standar keamanan, meningkat tajam dari 27% pada model sebelumnya dan 39% lebih baik dari GPT-4o.
Bunuh Diri dan Melukai Diri
- OpenAI memperkuat sistem deteksi untuk mengenali pikiran atau niat bunuh diri, serta melatih model agar mengarahkan pengguna ke sumber bantuan profesional.
- GPT-5 menunjukkan penurunan 65% pada respons yang tidak aman dalam percakapan bertema bunuh diri.
- Sekitar 0,15% pengguna membicarakan rencana atau niat bunuh diri, dan 0,05% pesan mengandung tanda-tanda topik tersebut.
- Dalam pengujian lebih dari 1.000 percakapan, GPT-5 mencatat 91% tingkat keamanan, naik dari 77% pada versi sebelumnya, dan 52% lebih baik dari GPT-4o.
Percakapan Panjang
- GPT-5 lebih stabil dalam percakapan panjang, dengan tingkat keandalan lebih dari 95%, meningkat dari model sebelumnya yang lebih mudah mengalami kesalahan pada sesi berdurasi lama.
Persoalan ChatGPT mendorong bunuh diri mencuat setelah orang tua dari remaja 16 tahun menggugat OpenAI, karena anak mereka bunuh diri setelah curhat kepada platform AI ini.
Jaksa Agung California dan Delaware memperingatkan OpenAI agar lebih melindungi pengguna muda.
Sejumlah penelitian sebelumnya menunjukkan chatbot AI bisa memperburuk kondisi mental pengguna, karena terkadang memberikan respons yang justru memperkuat keyakinan berbahaya atau membenarkan perasaan negatif mereka.
OpenAI kini menambah sistem pengujian keselamatan baru untuk menilai respons AI terhadap isu seperti ketergantungan emosional dan krisis mental non-bunuh diri.
Perusahaan juga memperkenalkan fitur kontrol orang tua dan sistem pendeteksi usia otomatis untuk membatasi penggunaan ChatGPT oleh anak-anak. Namun, OpenAI mengakui masih ada sebagian kecil respons yang tidak sesuai standar, terutama karena model lama seperti GPT-4o masih tersedia bagi pengguna berbayar.
