Character.AI akan Larang Pengguna Remaja untuk Menggunakan Chatbotnya

Character.AI melaporkan bahwa pihaknya akan membuat aturan yang melarang anak remaja untuk berinteraksi dengan chatbot-nya. Hal ini dilakukan karena perusahaan AI tersebut menghadapi tekanan yang semakin besar untuk melindungi para anak muda dari bahaya.
Dalam pernyataan resminya, pihak perusahaan mengonfirmasi bahwa mereka akan menghapus kemampuan pengguna di bahwa usia 18 tahun untuk bisa terlibat dalam perbincangan terbuka dnegan AI di platformnya, yang mengacu kepada percakapan dua arah antar pengguna dan chatbot.
Perubahan aturan ini efektif akan berjalan pada 25 November mendatang, dan di tanggal tersebut, Character.AI akan memberikan pengalaman baru bagi pengguna di bawah 18 tahun dengan mendorong penggunanya untuk melakukan berbagai hal kreatif, seperti membuat video atau streaming, alih-alih dijadikan sarana teman berinteraksi. Untuk mengelola transisi ini, pengguna di bawah 18 tahun kini hanya dapat berinteraksi dengan bot hingga dua jam per hari, batas waktu yang menurut perusahaan akan dikurangi menjelang batas waktu akhir November.
Character.AI juga menjamin bahwa sistemnya yang dikembangkan secara internal akan mampu memastikan pengguna untuk mendapatkan pengalaman chatbot yang sesuai dengan usianya. Aturan baru ini dilakukan bersamaan dengan perlindungan model baru untuk pengguna yang lebih muda, dengan perusahaan telah mendirikan “AI Safety Lab” yang diharapkan bisa menggabungkan wawasan dari perusahaan, peneliti, dan akademisi lain untuk meningkatkan keamanan penggunaan AI.
Selain karena masalah regulasi yang dicanangkan oleh pihak Komisi Perdagangan Federal (FTC) untuk meluncurkan penyelidikan formal terhadap perusahaan AI yang menawarkan akses terhadap chatbot, keputusan ini juga diambil karena berbagai kasus yang melanda anak remaja pengguna chatbot yang diduga melakukan bunuh diri sehabis berbincang dengan chatbot.
(sumber)














