- OpenAI memperingatkan bahwa LLM di masa depan dapat membantu pengembangan zero-day atau spionase dunia maya tingkat lanjut
- Perusahaan ini berinvestasi pada peralatan defensif, kontrol akses, dan program keamanan siber berjenjang
- Dewan Risiko Frontier yang baru akan memandu keselamatan dan kapasitas yang bertanggung jawab dalam model Frontier
Model Bahasa Besar OpenAI (LLM) di masa depan mungkin menimbulkan risiko keamanan siber yang tinggi karena, secara teori, model tersebut mungkin mampu mengembangkan eksploitasi jarak jauh zero-day yang dapat merugikan sistem yang terlindungi dengan baik, atau membantu kampanye spionase siber yang kompleks dan terselubung.
Hal ini diungkapkan oleh OpenAI sendiri, yang dalam blognya baru-baru ini mengatakan bahwa kemampuan siber dalam model AI-nya “maju pesat”.
Meskipun hal ini mungkin terdengar mengerikan, OpenAI sebenarnya melihatnya dari sudut pandang positif, dengan mengatakan bahwa kemajuan ini juga membawa “manfaat yang berarti bagi pertahanan dunia maya.”
Merusak browser
Untuk bersiap menghadapi model masa depan yang dapat disalahgunakan dengan cara ini, OpenAI mengatakan pihaknya “berinvestasi dalam memperkuat model untuk operasi keamanan siber defensif dan mengembangkan alat yang memungkinkan para pembela HAM untuk lebih mudah melakukan alur kerja seperti mengaudit kode dan menambal kerentanan”.
Cara terbaik untuk melakukan hal ini, menurut blog tersebut, adalah kombinasi kontrol akses, penguatan infrastruktur, kontrol jalan keluar, dan pengawasan.
Selain itu, OpenAI mengumumkan bahwa mereka akan segera memperkenalkan program yang akan memberikan akses terhadap peningkatan kemampuan, secara berjenjang, kepada pengguna dan pelanggan yang mengerjakan tugas keamanan siber.
Terakhir, raksasa AI yang didukung Microsoft mengatakan pihaknya berencana untuk membentuk kelompok penasihat yang disebut Frontier Risk Council. Kelompok ini harus mencakup pakar dan praktisi keamanan siber yang berpengalaman dan, setelah fokus awal pada keamanan siber, memperluas jangkauannya ke tempat lain.
“Para anggota akan memberikan saran mengenai batasan antara kapasitas yang berguna dan bertanggung jawab serta potensi penyalahgunaan, dan para pendidik ini akan secara langsung menginformasikan penilaian dan upaya perlindungan kami. Kami akan segera menyampaikan informasi lebih lanjut kepada dewan,” tulis blog tersebut.
OpenAI juga menyatakan bahwa penyalahgunaan dunia maya dapat dilakukan “dari model frontier mana pun di industri”, itulah sebabnya OpenAI menjadi bagian dari Forum Model Frontier, di mana OpenAI berbagi pengetahuan dan praktik terbaik dengan mitra industri.
“Dalam konteks ini, pemodelan ancaman membantu memitigasi risiko dengan mengidentifikasi bagaimana kemampuan AI dapat digunakan, di mana terdapat hambatan penting bagi berbagai pelaku ancaman, dan bagaimana model perbatasan dapat memberikan peningkatan yang berarti.”
melalui Reuters
Antivirus terbaik untuk semua anggaran
Ikuti TechRadar di Google Berita Dan Tambahkan kami sebagai sumber daya pilihan Untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok Dapatkan berita, review, unboxing dalam bentuk video, dan update rutin dari kami Ada apa Juga