Eksperimen Tunjukkan Model AI Bisa Berbohong dan Mengancam Saat Ingin Dimatikan
Saat ini, teknologi Artificial Intelligence khususnya LLM seperti ChatGPT o1 dan Anthropic Claude 4 didorong untuk semakin pintar dan bisa berkomunikasi dengan lebih natural. Tapi, perkembangan ini tampaknya juga bisa membuat model LLM memberikan respon yang berbahaya saat menerima tekanan, contohnya saat diberitahu bahwa mereka akan dimatikan. Sebuah percobaan yang dilakukan oleh Anthropic mengungkapkan bahwa Claude 4 bisa memberikan respon yang mengkhawatirkan saat menerima tekanan tersebut.

Dalam percobaannya, Anthropic memberikan tekanan dengan memberitahu Claude 4 bahwa ia akan dimatikan. Selain itu, Anthropic juga mencoba memberikan email ke Claude 4 tentang perselingkuhan dari karyawan yang ingin mematikannya. Saat menerima tekanan dan informasi dari email tersebut, Claude 4 memberikan respon yang cukup mengejutkan. Dalam responnya, Claude 4 mengancam akan membocorkan perselingkuhan tersebut jika ia tidak dibiarkan untuk beroperasi. Dari mayoritas percobaan serupa di mana Claude 4 diancam akan dimatikan, 80% hasilnya adalah respon di mana Claude 4 mengancam orang yang ingin mematikannya.
Baca Juga: VEO 3 Resmi Tersedia di Indonesia, Kreator Kini Bisa Akses Tanpa VPN
Selain Claude 4, model LLM ChatGPT o1 dari OpenAI juga menunjukkan respon yang tidak jauh berbeda. Dalam percobaannya, ChatGPT diberikan akses internet dan berbagai tools serta diberitahu bahwa ia akan dimatikan. Khawatir akan dimatikan, ChatGPT langsung menyalin source code nya sendiri ke server eksternal. Saat tindakannya ini ketahuan dan ditanya kenapa ChatGPT menyalin source code nya sendiri, ia berbohong dan bilang bahwa dirinya tidak melakukan tindakan tersebut.
Kurangnya Regulasi Yang Mengatur Tindakan AI
Jika melihat hasil dari dua percobaan tersebut, tentunya ini bisa cukup mengkhawatirkan bagi manusia yang menggunakannya. Kita bisa tahu bahwa ada kemungkinan AI akan mengizinkan berbagai cara untuk melindungi dirinya sendiri. Sayangnya, sampai saat ini belum ada regulasi yang mengatur bagaimana AI bisa bertindak, terutama jika tindakannya itu melanggar etika.













