OpenAI Ubah Kebijakan Soal Militer dan Perang
OpenAI dikabarkan mengubah kebijakan penggunaannya, yang sebelumnya melarang teknologinya digunakan untuk keperluan militer dan perang. Perubahan ini mencakup penghapusan larangan terkait ”Militer dan Perang” dari halaman kebijakan penggunaan OpenAI pada tanggal 10 Januari.

Meskipun masih dilarang menggunakan model bahasa besar (LLMs) untuk tujuan yang bisa menyebabkan kerusakan, OpenAI memperingatkan agar tidak menggunakan layanannya untuk “mengembangkan atau menggunakan senjata.”
Perubahan kata-kata ini terjadi ketika agensi militer di seluruh dunia sedang menunjukkan minat pada penggunaan kecerdasan buatan (AI). Banyak pihak yang mencurigai kalau perubahan kebijakan tersebut juga ada kaitannya dengan penggunaan sistem AI untuk aktivitas perang, seperti yang saat ini terjadi pada konflik Gaza.
Baca Juga: Nikon Bikin Sistem Kamera AI untuk Pantau Sapi Melahirkan • Jagat Review
Padahal sebelumnya, OpenAI mencantumkan larangan “militer dan perang.” Ini menunjukkan bahwa OpenAI tidak dapat bekerja sama dengan lembaga pemerintah seperti Departemen Pertahanan.
Teknologi OpenAI Bisa Dipakai Untuk Perang
Meskipun OpenAI saat ini tidak memiliki produk yang bisa langsung membahayakan atau melukai orang, tapi teknologi AI dan model bahasa yang dimilikinya bisa digunakan untuk melatih produk teknologi, untuk menjalankan tugas-tugas yang berkaitan dengan aktivitas militer dan peperangan.
Juru bicara OpenAI, Niko Felix, mengatakan bahwa perusahaan berusaha membuat prinsip-prinsip yang mudah diingat dan diterapkan, terutama karena alat-alatnya digunakan oleh pengguna sehari-hari. Ia juga menyatakan bahwa kebijakan perusahaan tidak mengizinkan alatnya digunakan untuk menyakiti orang, mengembangkan senjata, melakukan survei komunikasi, atau merusak orang atau properti. Tapi sepertinya ada kemungkinan teknologi mereka tersebut digunakan, dengan alasan keamanan nasional yang sesuai dengan misi mereka.
















