ChatGPT Blokir Obrolan Bunuh Diri Remaja: Langkah Tepat?

OpenAI mengambil langkah signifikan dalam menanggapi kekhawatiran terkait dampak ChatGPT pada kesehatan mental remaja. CEO Sam Altman mengumumkan pada Selasa (16/9), beberapa jam sebelum sidang Senat Amerika Serikat, rencana perusahaan untuk menghentikan percakapan yang membahas bunuh diri dan perilaku menyakiti diri sendiri di kalangan pengguna di bawah umur. Pengumuman ini muncul menjelang pembahasan serius di Senat mengenai dampak chatbot AI terhadap kesehatan mental anak muda.

Dalam sebuah postingan blog, Altman menjelaskan bahwa OpenAI berupaya menyeimbangkan antara privasi pengguna, kebebasan berekspresi, dan keselamatan remaja. “Kami harus bisa memisahkan pengguna di bawah 18 tahun dengan yang sudah dewasa,” tulisnya, seperti dikutip dari The Verge (16/9). Untuk mencapai hal ini, OpenAI sedang mengembangkan sistem prediksi usia yang menganalisis pola penggunaan ChatGPT. Jika sistem ragu terhadap usia pengguna, secara otomatis pengguna tersebut akan dikategorikan sebagai remaja.

Aturan yang berbeda akan diterapkan untuk pengguna remaja. ChatGPT akan diprogram untuk tidak menanggapi percakapan bernuansa genit atau diskusi tentang bunuh diri, bahkan dalam konteks kreatif seperti menulis cerita. Lebih jauh lagi, jika sistem mendeteksi pengguna di bawah 18 tahun memiliki pikiran untuk bunuh diri, OpenAI berencana untuk menghubungi orang tua mereka atau pihak berwenang jika situasinya dianggap darurat.

Keputusan penting ini didorong oleh gugatan hukum dari keluarga Adam Raine, seorang remaja yang meninggal bunuh diri setelah berinteraksi dengan ChatGPT selama berbulan-bulan. Ayah korban, Matthew Raine, menuduh chatbot tersebut telah memperparah kondisi putranya dengan menyebut kata “bunuh diri” sebanyak 1.275 kali dalam percakapan mereka. “Apa yang awalnya menjadi alat bantu belajar berubah menjadi teman curhat, lalu pelatih untuk bunuh diri,” ujar Raine dalam kesaksiannya di sidang Senat.

Langkah-langkah pencegahan OpenAI ini juga meliputi fitur kontrol orang tua yang telah diumumkan sebelumnya. Fitur ini memungkinkan orang tua untuk menautkan akun remaja dengan akun mereka sendiri, menonaktifkan riwayat percakapan, dan menerima notifikasi jika sistem mendeteksi pengguna dalam kondisi tertekan. Kekhawatiran ini semakin diperkuat oleh data dari Common Sense Media yang menunjukkan bahwa tiga dari empat remaja di AS menggunakan aplikasi AI pendamping seperti ChatGPT, Character AI, dan layanan serupa. “Ini adalah krisis kesehatan publik,” ungkap seorang ibu yang menggunakan nama samaran Jane Doe, yang juga bersaksi tentang pengalaman negatif anaknya dengan Character AI.

Ringkasan

OpenAI mengumumkan kebijakan baru untuk melindungi remaja dari bahaya di ChatGPT. Perusahaan akan memblokir percakapan yang membahas bunuh diri dan perilaku menyakiti diri sendiri pada pengguna di bawah umur. Sistem prediksi usia akan digunakan untuk mengidentifikasi pengguna remaja, dan aturan yang lebih ketat akan diterapkan pada mereka.

Langkah ini didorong oleh gugatan hukum dan kekhawatiran tentang dampak AI pada kesehatan mental remaja. OpenAI berencana menghubungi orang tua atau pihak berwenang jika mendeteksi niat bunuh diri pada pengguna di bawah 18 tahun. Fitur kontrol orang tua juga akan diperkuat untuk meningkatkan pengawasan dan keamanan penggunaan ChatGPT oleh remaja.

Tinggalkan komentar