Para peneliti mendorong AI ke dalam ranah malware, dan hasil yang mengejutkan mengungkapkan betapa tidak dapat diandalkannya sistem yang disebut berbahaya ini.

Para peneliti mendorong AI ke dalam ranah malware, dan hasil yang mengejutkan mengungkapkan betapa tidak dapat diandalkannya sistem yang disebut berbahaya ini.


  • Laporan tersebut menemukan bahwa malware yang diproduksi oleh LLM masih gagal dalam pengujian dasar di lingkungan dunia nyata.
  • GPT-3.5 dengan cepat menghasilkan skrip berbahaya, sehingga memperlihatkan inkonsistensi keamanan utama
  • Pagar pembatas yang ditingkatkan di GPT-5 mengubah keluaran menjadi opsi yang aman dan tidak berbahaya

Meskipun ketakutan terhadap LLM yang dipersenjatai semakin meningkat, eksperimen baru telah mengungkapkan bahwa potensi keluaran berbahaya tidak dapat diandalkan.

Peneliti NetScope menguji apakah model bahasa modern dapat mendukung gelombang serangan siber otonom berikutnya, dan menentukan apakah sistem ini dapat menghasilkan kode berbahaya yang bekerja tanpa bergantung pada logika hardcode.



Tautan Sumber