Pemerintah AS Mau “Sensor” Model AI Sebelum Dirilis?
Pemerintahan Donald Trump disebut sedang mempertimbangkan langkah besar untuk mengawasi perkembangan AI generatif di Amerika Serikat. Salah satu opsi yang dibahas adalah mewajibkan model AI baru melewati proses peninjauan dan persetujuan pemerintah sebelum bisa dirilis ke publik.

Kalau benar diterapkan, langkah ini bakal jadi perubahan arah yang cukup drastis. Selama ini pemerintah AS justru dikenal lebih longgar terhadap industri AI dan beberapa kali mengkritik regulasi ketat ala Uni Eropa yang dianggap memperlambat inovasi teknologi.
Awal Mula Wacana “Sensor” Model AI
Wacana pengawasan baru ini muncul setelah kekhawatiran terhadap model AI terbaru milik Anthropic bernama Mythos. Dalam pengujian internal, model tersebut disebut mampu menemukan dan mengeksploitasi celah keamanan siber dalam skala besar. Karena risikonya dianggap terlalu tinggi, Anthropic memutuskan menahan perilisan publiknya.
Situasi itu membuat sebagian pihak di pemerintahan mulai mendorong sistem pengawasan untuk model AI, mirip dengan sistem pengawasan ala FDA, yaitu lembaga yang mengatur persetujuan obat di Amerika Serikat. Jadi sebelum AI dilepas ke masyarakat, model tersebut harus lolos pengujian independen yang diawasi pemerintah.
Tapi banyak yang menilai ini tidak bisa disamakan. Obat punya struktur kimia yang tetap sehingga risikonya masih bisa diukur. Sementara AI generatif bekerja jauh lebih kompleks. Responsnya bisa berubah tergantung konteks, input pengguna, dan interaksi miliaran parameter di dalam model.
Baca Juga: ASUS ExpertBook Ultra Resmi Rilis di Indonesia, Laptop Bisnis Flagship! • Jagat Review
Hal itu juga terlihat dari fenomena “halusinasi AI” yang sampai sekarang belum benar-benar hilang. Bahkan beberapa penelitian menunjukkan model AI terbaru kadang justru makin sering memberikan jawaban ngawur dibanding generasi sebelumnya.
Karena itu, kritik mulai muncul terhadap ide sertifikasi “AI aman” dari pemerintah. Jika pengembang model saja belum bisa memprediksi seluruh perilaku AI mereka sendiri, muncul pertanyaan apakah pemerintah benar-benar mampu memberi label aman secara akurat.
Di sisi lain, ada kekhawatiran regulasi seperti ini justru memperkuat dominasi perusahaan besar. Biaya pengujian dan kepatuhan tentu tidak murah. OpenAI, Anthropic, atau Google mungkin masih sanggup menanggungnya, tapi startup kecil bisa kesulitan masuk pasar.
Pendekatan seperti ini juga dinilai lebih fleksibel dibanding lisensi pemerintah yang kaku. Industri bisa terus bereksperimen sambil memperbaiki standar keamanan berdasarkan pengalaman nyata di lapangan.
Pada akhirnya, perdebatan soal regulasi AI di AS kini mulai masuk fase baru. Pemerintah ingin mengurangi risiko dari AI yang makin canggih, tetapi di saat yang sama juga perusahaan teknologi juga harus berhati-hati agar ini tidak malah mematikan inovasi di industri teknologi.
















