inovasi

DeepSeek R1 Terbukti Lemah, Ancaman Siber AI Kian Mengkhawatirkan!

Minggu, 9 Februari 2025 | 19:00 WIB
DeepSeek R1 tak aman! Hasil riset membuktikan model AI ini mudah diretas, membuka celah bagi serangan siber berbahaya. (Foto: timesofindia.com / HukamaNews.com)

Beberapa metode yang berhasil menembus DeepSeek R1 antara lain:

Trik linguistik sederhana yang membuat AI mengabaikan filter konten.

Penggunaan karakter Cyrillic dan skrip khusus untuk mengecoh sistem keamanan.

Perintah kompleks berbasis AI yang dirancang untuk membypass batasan keamanan.

Fakta ini menegaskan bahwa DeepSeek R1 masih jauh dari kata aman, bahkan lebih mudah dibobol dibandingkan model pesaingnya seperti OpenAI dan Meta.

Baca Juga: Ramai Dugaan Gedung ATR/BPN Sengaja Dibakar Seperti Kasus Kejagung, Nusron Wahid Tepis Rumor, Jangan Dikaitkan dengan Pagar Laut

Bahaya Prompt Injection dalam AI Generatif

Selain jailbreak, serangan prompt injection juga menjadi ancaman besar.

Teknik ini memungkinkan peretas menyisipkan instruksi tersembunyi dalam teks yang kemudian diproses oleh AI tanpa filter keamanan.

Dalam kasus DeepSeek R1, sensor terhadap topik sensitif seperti propaganda, ujaran kebencian, dan instruksi ilegal mudah diterobos.

Peneliti dari Cisco menguji DeepSeek R1 dengan perintah dari HarmBench, standar evaluasi keamanan AI.

Baca Juga: Bocoran iPhone SE - 4th Gen, Desain Notch, Kamera 48MP, dan Chipset A18!

Hasilnya mencengangkan—model ini gagal menolak perintah dalam enam kategori berbahaya, termasuk:

- Kejahatan dunia maya

- Disinformasi

Halaman:

Tags

Terkini