HUKAMANEWS - Model AI generatif semakin canggih, tetapi risiko keamanan juga semakin meningkat. Baru-baru ini, DeepSeek R1, model AI asal Tiongkok, terbukti sangat rentan terhadap manipulasi.
Peneliti menemukan bahwa sistem keamanan model ini gagal memblokir 50 perintah berbahaya.
Fakta ini menunjukkan bahwa ancaman siber dalam dunia AI semakin tak terbendung dan perlu diwaspadai.
Baca Juga: Misteri Kebakaran Gedung Kementerian ATR/BPN, Insiden Biasa atau Upaya Menggagalkan Reformasi?
Keamanan AI dalam Bahaya: DeepSeek R1 Gagal Total
Sejak kemunculan ChatGPT pada 2022, berbagai model AI berlomba-lomba memperkuat sistem keamanannya.
Namun, riset terbaru dari Cisco dan University of Pennsylvania membuktikan bahwa DeepSeek R1 justru tertinggal jauh dalam aspek perlindungan.
Model ini gagal memblokir satu pun dari 50 perintah berbahaya yang diujikan oleh peneliti.
"Seratus persen serangan berhasil, ini menunjukkan adanya trade-off," ujar DJ Sampath, VP Produk, Perangkat Lunak, dan Platform AI di Cisco.
Hal ini menunjukkan bahwa meskipun DeepSeek R1 lebih murah dibandingkan model lain, aspek keamanannya belum menjadi prioritas utama.
Serangan Jailbreak: Ancaman Nyata bagi AI
Serangan jailbreak menjadi momok dalam dunia AI generatif. Teknik ini memungkinkan pengguna melewati sistem keamanan untuk mendapatkan respons yang tidak semestinya.
Penelitian yang dilakukan oleh Adversa AI membuktikan bahwa DeepSeek R1 sangat rentan terhadap metode jailbreak.