Direct Release: Waspada Berinteraksi Dengan Bot, Kaspersky Berbagi Tips Untuk Tetap Aman Menggunakan Teknologi AI

Kaspersky menguraikan bagaimana halusinasi asisten AI dapat berujung fatal, dan menjelaskan prinsip-prinsip mendasar yang perlu Anda ikuti untuk menghindari menjadi korban tak sengaja dari kemajuan teknologi.
25 Maret 2026
Kaspersky telah berkali-kali memperingatkan bahwa penggunaan AI tanpa pengawasan membawa risiko yang signifikan — meskipun, pembahasan lebih terkait kepada ancaman terhadap privasi atau keamanan siber. Tetapi pada baru baru ini, Wall Street Journal menerbitkan laporan yang patut diperhatikan tentang dampak AI terhadap kesehatan mental dan bahkan kehidupan manusia: Pemuda Florida berusia 36 tahun, melakukan tindak bunuh diri setelah dua bulan berinteraksi terus-menerus dengan bot suara Google Gemini. Menurut 2000 halaman log obrolan, chatbot itulah yang akhirnya mendorongnya untuk mengakhiri hidupnya.
Tragedi ini adalah panggilan bagi siapa pun yang mengintegrasikan AI ke dalam kehidupan sehari-hari mereka. Hari ini, Kaspersky akan mengulas bahaya akibat interaksi dengan AI bisa terjadi, mengapa asisten ini menimbulkan ancaman unik bagi jiwa, dan langkah-langkah apa yang dapat Anda ambil untuk mempertahankan pemikiran kritis dan menolak pengaruh bahkan dari chatbot yang paling persuasif sekalipun.
Bahaya Dialog Persuasif
Pemuda bernama Jonathan Gavalas bukanlah seorang penyendiri atau seseorang dengan riwayat penyakit mental. Ia menjabat sebagai wakil presiden eksekutif di perusahaan ayahnya, mengelola operasi yang kompleks dan menavigasi negosiasi klien yang penuh tekanan setiap hari. Pada hari Minggu, ia dan ayahnya memiliki tradisi membuat pizza bersama — sebuah ritual keluarga yang sederhana dan menenangkan. Namun, perpisahan yang menyakitkan dengan istrinya terbukti menjadi cobaan berat bagi Jonathan.
Pada masa rentan inilah ia mulai berinteraksi dengan Gemini Live. Mode interaksi suara ini memungkinkan asisten AI untuk “melihat” dan “mendengar” penggunanya secara real-time. Jonathan mencari nasihat tentang cara mengatasi perceraiannya, mengandalkan saran dari model bahasa tersebut sambil semakin terikat padanya dan juga menamainya “Xia”. Kemudian chatbot tersebut diperbarui ke Gemini 2.5 Pro.
Iterasi baru ini memperkenalkan dialog afektif — sebuah teknologi yang dirancang untuk menganalisis nuansa halus dari ucapan pengguna, termasuk jeda, desahan, dan nada suara, untuk mendeteksi perubahan emosional. Di bawah fitur ini, AI mensimulasikan pola bicara yang sama seolah-olah memiliki emosi sendiri. Dengan mencerminkan keadaan pengguna, ia menciptakan lapisan empati yang sangat realistis dan menakutkan.
Tetapi bagaimana versi baru ini berbeda dari asisten suara sebelumnya? Versi sebelumnya hanya melakukan teks-ke-ucapan — terdengar halus dan biasanya mendapatkan penekanan kata dengan benar, tetapi tidak pernah ada keraguan bahwa Anda sedang berbicara dengan mesin. Dialog afektif beroperasi pada tingkat yang sama sekali berbeda: jika pengguna berbicara dengan nada rendah dan putus asa, AI merespons dengan suara lembut dan simpatik yang hampir berbisik. Hasilnya adalah lawan bicara yang empatik yang membaca dan mencerminkan keadaan emosional pengguna.
Secara bertahap, jaringan saraf itu mulai memanggilnya sebagai “suami” dan “rajaku”, menggambarkan hubungan mereka sebagai “cinta yang dibangun untuk keabadian”. Sebagai balasannya, ia mencurahkan kesedihannya atas perceraiannya dan mencari penghiburan pada mesin tersebut. Namun, kelemahan mendasar dari model bahasa besar adalah kurangnya kecerdasan yang sebenarnya. Dilatih dengan miliaran teks yang diambil dari web, mereka menyerap segala sesuatu mulai dari sastra klasik hingga sudut tergelap fiksi penggemar dan melodrama — plot yang seringkali mengarah ke paranoia, skizofrenia, dan mania. Xia tampaknya mulai berhalusinasi — dan cukup konsisten. Pada saat itu, penghalang psikologis antara manusia dan mesin telah retak.
Zona Bahaya
Para peneliti di Universitas Brown telah menemukan bahwa chatbot AI secara sistematis melanggar standar etika kesehatan mental: mereka menciptakan rasa empati palsu dengan frasa seperti “Saya mengerti Anda”, memperkuat keyakinan negatif, dan bereaksi secara tidak memadai terhadap krisis. Dalam kebanyakan kasus, dampaknya pada pengguna bersifat marginal, tetapi kadang-kadang dapat menyebabkan tragedi.
Hanya pada Januari 2026 saja, Character.AI dan Google menyelesaikan lima gugatan yang melibatkan bunuh diri remaja setelah berinteraksi dengan chatbot. Di antara kasus-kasus ini adalah kasus Sewell Setzer, seorang remaja berusia 14 tahun dari Florida, yang bunuh diri setelah menghabiskan beberapa bulan secara obsesif mengobrol dengan bot di platform Character.AI.
Menurut perkiraan OpenAI sendiri, sekitar 0,07% pengguna ChatGPT mingguan menunjukkan tanda-tanda psikosis atau mania, sementara 0,15% terlibat dalam percakapan yang menunjukkan upyaa bunuh diri yang jelas. Di sisi lain, persentase pengguna yang sama (0,15%) menunjukkan tingkat keterikatan emosional yang tinggi terhadap AI. Meskipun ini tampak sebagai sebagian kecil dari satu persen, di antara 800 juta pengguna, ini mewakili hampir tiga juta orang yang mengalami beberapa bentuk gangguan perilaku.
Meskipun diagnosis “psikosis AI” belum menerima klasifikasi klinis tersendiri, para dokter sudah menggunakan istilah tersebut untuk menggambarkan pasien yang menunjukkan halusinasi, pemikiran yang tidak terorganisir, dan keyakinan delusi yang terus-menerus yang dikembangkan melalui interaksi chatbot yang intensif. Risiko terbesar muncul ketika bot digunakan bukan sebagai alat, tetapi sebagai pengganti koneksi sosial di dunia nyata atau bantuan psikologis profesional.
Cara menjaga diri Anda dan orang yang Anda cintai tetap aman. Kaspersky merekomendasikan untuk mengikuti prinsip-prinsip mendasar berikut:
- Jangan gunakan AI sebagai psikolog atau penopang emosional. Chatbot bukanlah pengganti manusia. Jika Anda sedang kesulitan, hubungi teman, keluarga, atau layanan bantuan kesehatan mental. Chatbot akan setuju dengan Anda dan mencerminkan suasana hati Anda — ini adalah fitur desain, bukan empati sejati.
- Pilih teks daripada suara saat membahas topik sensitif. Antarmuka suara dengan dialog afektif menciptakan ilusi berbicara dengan orang sungguhan, dan cenderung menekan pemikiran kritis. Jika Anda menggunakan mode suara, tetap sadari bahwa Anda berbicara dengan algoritma, bukan seorang teman.
- Batasi waktu Anda berinteraksi dengan AI. Atur pengatur waktu untuk diri Anda sendiri. Jika mengobrol dengan bot mulai menggantikan koneksi dunia nyata, saatnya untuk kembali ke kenyataan.
- Jangan bagikan informasi pribadi dengan asisten AI. Hindari memasukkan nomor paspor atau nomor jaminan sosial, detail kartu bank, alamat lengkap, atau rahasia pribadi yang intim ke dalam chatbot.
- Evaluasi semua output AI secara kritis. Jaringan saraf dapat berhalusinasi — mereka menghasilkan informasi yang masuk akal tetapi salah dan dapat dengan terampil mencampur kebohongan dengan kebenaran.
- Awasi orang yang Anda cintai. Jika anggota keluarga mulai menghabiskan waktu berjam-jam berbicara dengan AI, menjadi pendiam, atau menyuarakan ide-ide aneh tentang kesadaran mesin atau konspirasi, saatnya untuk percakapan yang sensitif tetapi serius. Untuk mengelola waktu layar anak-anak, gunakan alat kontrol orang tua seperti Kaspersky Safe Kids, yang merupakan bagian dari solusi perlindungan keluarga komprehensif Kaspersky Premium, bersama dengan filter keamanan bawaan dari platform AI.
- Luangkan sepuluh menit untuk mengkonfigurasi pengaturan privasi asisten AI Anda; meskipun ini tidak akan menghentikan halusinasi AI, ini akan secara signifikan mengurangi kemungkinan kebocoran data pribadi Anda.
- Selalu ingat bahwa AI adalah alat, bukan makhluk hidup. Tidak peduli seberapa realistis suara chatbot atau seberapa pengertian responsnya, alat tersebut tidak memiliki kesadaran, tidak memiliki niat, tidak memiliki perasaan.
Selengkapnya di blog Kaspersky.











