Konvergensi mesin canggih, otomatisasi, dan pembelajaran generatif dengan cepat mengubah lanskap Cibera mengancam seperti yang kita ketahui.
Dari aturan berdasarkan pembelajaran otomatis dan model bahasa yang hebat (LLM), AI terus memperluas kemampuan dan pengaruhnya pada setiap langkah.
Kami sekarang menyaksikan munculnya era baru dalam keamanan siber yang dipromosikan oleh pengembangan agen: sistem yang dapat belajar, membuat keputusan dan bertindak secara mandiri dengan sedikit intervensi manusia.
Berbeda dengan generatif AI, yang bereaksi terhadap pintu masuk untuk membuat pintu keluar, agen cerdas AI tidak hanya dapat memahami dan melaksanakan, tetapi juga untuk menyimpulkan dan beradaptasi secara mandiri untuk mempertahankan proses ini dan mencapai tujuan yang cepat.
Sayangnya, kecepatan dan potensinya juga menjadikannya teknologi baru yang diinginkan untuk musuh, tidak hanya sebagai alat baru, tetapi sebagai rekan setimnya.
Direktur Kepemimpinan Pelanggan, Amerika Utara Sygnia Consulting.
Kemampuan AI untuk memproses teks, gambar, dan audio secara bersamaan, dan sekarang dengan pengambilan keputusan pintar -real -time, hanya permukaan serangan yang akan diperluas lebih lanjut, memperkenalkan risiko baru di sekitar kontrol akses, kebocoran data, dan paparan informasi sensitif yang tidak diinginkan.
Dampaknya melampaui kerugian finansial bagi perusahaan: kepercayaan yang terkikis, kerusakan reputasi dan konsekuensi peraturan.
Tanpa bingkai yang jelas atau pemahaman organisasi yang mendalam tentang bagaimana mereka mengelola dan menyimpan data dari agen -agen ini, bahkan penyebaran yang bermaksud baik dapat menyebabkan kesenjangan keamanan yang parah.
Organisasi perlu mengurus dan mulai menemukan cara untuk mengambil keuntungan dari agen juga atau mengambil risiko -mendekati kemampuan mereka untuk mengoperasikan dan mempertahankan aset mereka yang paling berharga.
Apakah kita melihat lawan baru?
Kami melihat gelombang cepat agen IA dan agen, bertindak secara mandiri, berkolaborasi dengan agen lain di IA untuk melaksanakan penipuan skala dan bahkan mengeksekusi serangan siber:
1. Perubahan eksploitasi otonom: Meskipun masih belum ada ekosistem ilegal yang sepenuhnya didominasi oleh AI, perubahan ini berakselerasi dengan cepat.
Agen otonom menjadi semakin mampu mengganggu sistem dunia nyata, seperti platform email, database cryptomoneda dan portofolio, yang bertindak secara independen dan mengoptimalkan keuntungan finansial, akses ke data atau pengaruh.
2. Ekosistem penipuan multi-agen: Agen -agen di AI sudah dapat mengotomatisasi phishing fishing, kampanye peniruan, serangan rekayasa sosial nol -hari dan konten penipuan melalui penghapusan data publik dan penciptaan tautan antar entitas melalui pemodelan grafik sosial. Ke depan, konsep ekosistem penipuan multi-agen muncul sebagai evolusi yang sangat masuk akal.
Agen AI berisi intelijen dan isi phishing kerajinan, agen lain menjalankan pencurian atau komitmen kredensial, dan agen ketiga yang mengosongkan dana. Agen -agen AI ini dirancang untuk meniru perilaku manusia sehingga tepat sehingga risiko sistem penilaian biometrik dan deteksi trik non -penetapan dapat diabaikan.
3. Komputer yang menggunakan agen, seperti yang dibangun di atas platform seperti operator openai, sekarang dapat meniru perilaku manusia (misalnya, pola penulisan, gerakan mouse, kalender) untuk lebih menghindari deteksi penipuan dan sistem captcha.
4. Kit penipuan ai-manajemen dan booming phaas/faas dengan kemampuan bypass MFA: Musuh menawarkan lebih banyak kit phishing-sebagai layanan (PHAAS) dan penipuan sebagai layanan (FAAS) yang mencakup kemampuan untuk mencegah otentikasi berbagai faktor (MFA) menggunakan teknik musuh canggih di tengah (AITM). Kit seperti EvilProxy, Tycoon 2FA dan Mamba mudah dibeli dan sering tinggal dan dijual di pasar web telegram dan gelap.
Penelitian menunjukkan bahwa satu dari empat CISO telah mengalami serangan AI hanya pada tahun lalu, dan penampilan AI Agentica hanya diharapkan untuk mengangkat aktor ancaman dalam melaksanakan serangan skala massal untuk profitabilitas eksponensial.
Karena organisasi harus memberikan naskah dengan agen AI
Agen AI seharusnya tidak menjadi musuh. Peralatan keselamatan juga dapat memanfaatkan agen untuk menutup kesenjangan antara aktor ancaman dan pembela, sambil menurunkan beberapa tugas terberat mereka.
Ketika mereka bekerja secara proaktif dan prediksi, agen pada akhirnya memiliki kemampuan untuk mengantisipasi perilaku aktor ancaman, meluncurkan dekorasi dan kemungkinan ancaman yang terisolasi sebelum mencapai aset yang paling berharga dari suatu organisasi.
Ketika digunakan sebagai perpanjangan dari peralatan keselamatan internal, agen AI dapat digunakan untuk berburu ancaman, mendeteksi kerentanan dan kelainan dalam pola perilaku yang lebih cepat dan lebih menguntungkan, mengurangi hari dan jam menjadi menit dan detik.
Karena agen AI memiliki kapasitas untuk belajar, beradaptasi, dan memprediksi, agen dapat digunakan untuk mengubah strategi pertahanan waktu nyata dan bahkan mendukung latihan tim merah untuk mencari potensi kerentanan dalam organisasi, sebelum ada pelanggaran, untuk membantu meningkatkan sikap keamanan umum.
Misalnya, dengan kecepatan fenomenalnya, agen IA dapat dikerahkan sebagai analis keamanan untuk tugas -tugas tertentu seperti memindai ratusan kerentanan dalam satu hari, terus diperbarui tentang ancaman polisi terbaru dan laporan pemerintah tentang serangan pelanggaran dan membuat perubahan untuk memperkuat perlindungan sibernetik.
Agen tidak hanya akan mengurangi kelelahan mengotomatiskan pemantauan, triase dan respons, tetapi juga merebut anggota tim lainnya untuk fokus pada tujuan bisnis yang lebih strategis, yaitu, R&D.
Agenica juga dapat diterapkan untuk mendukung kepatuhan dan regulasi, memastikan bahwa suatu organisasi diperbarui secara berkala dari persyaratan dan tanda merah di mana mereka dapat berisiko sejalan dengan hukum.
Agen AI dengan aman dan agen strategis
Sementara adopsi AI di pusat operasi keamanan semakin cepat, 67%organisasi menggunakan agen AI selama tahun tersebut, mencapai agen AI (37%) dan mengatur penggunaan alat AI (36%) yang telah muncul sebagai masalah kue utama.
Dengan agen AI yang bekerja secara mandiri dan tertanam dalam sistem komputer, langkah -langkah untuk memastikan agen masih matang dan ada risiko alami yang dapat menjadi tujuan utama aktor ancaman.
Desalineasi dan cacat penalaran juga dapat mengakibatkan agen IA menafsirkan informasi dan melakukan tindakan yang salah secara mandiri; Tidak mengherankan bahwa manajemen manusia dalam loop dan “sandboxing”, di mana proses atau program diisolasi di lingkungan yang terkontrol, sangat penting untuk implementasi agen di AI.
Pendekatan yang hati -hati
Di Sygnia, kami sarankan mengadopsi pendekatan yang hati -hati dan terkontrol untuk agen, yang digunakan sebagai peningkatan daripada sebagai pengganti pengalaman keamanan. Adopsi pendekatan hybrid di mana peralatan keselamatan menonton secara teratur dan konfigurasi parameter kontrol akan menjadi kunci untuk penyebaran yang berhasil:
• Mengadopsi strategi berbasis risiko -Komage dengan adopsi bertahap agen AI dalam skenario dan lingkungan risiko rendah. Dengan cara ini, tim dapat melihat jawaban agen sebelum mengizinkan otonomi lengkap dan meningkatkan kemampuan deteksi melalui analitik perilaku dan penipuan proaktif.
• Tentukan peran dan pemerintahan yang jelas dan ringkas – Semua agen AI harus memiliki serangkaian tanggung jawab yang jelas, termasuk aturan penggunaan, protokol pendakian dan batasan etis yang harus dipenuhi. Bingkai harus mencakup akuntabilitas operasional dan peraturan.
• Pastikan infrastruktur data berkualitas tinggi – Agen AI harus memberikan data yang tepat, terkini dan terstruktur mempertahankan privasi karyawan dan pelanggan dan mengurangi bias potensial.
• Buat integrasi mesin manusia – Tim harus berkolaborasi dengan agen IA untuk menentukan poin intervensi manusia dan untuk memastikan dokumentasi dan pemahaman tentang keputusan IA untuk mendapatkan transparansi lengkap dan opsi untuk mengganti tindakan. Ini menggabungkan analis manusia dengan agen AI untuk membentuk unit pertahanan yang berkolaborasi dan adaptif.
• Membangun kerangka kerja kolaboratif multi-agen – Pembela dapat merancang dan mengimplementasikan bingkai di mana agen menghasilkan hasil dan yang lain memberikan komentar konstruktif untuk membuat loop umpan balik yang meningkatkan kinerja umum dan ketahanan.
Revolusi keamanan siber
Cybersecurity adalah revolusi bagi agen dalam lebih dari satu cara. Menurut Gartner, pada tahun 2027, ini akan mengurangi waktu untuk mengeksploitasi akun yang berkomitmen hingga 50%, tetapi di fipside, ini juga menunjukkan potensinya untuk dukungan yang lebih baik bagi tim keamanan untuk mengurangi waktu paparan untuk melanggar pada kecepatan yang sama.
Dengan pengalaman gabungan peralatan keselamatan dan respons terhadap insiden internal atau outsourcing, kerangka kerja strategis dan pendekatan untuk implementasi agen IVA, kami dapat melihat keamanan siber yang disediakan oleh pertahanan kami yang paling cerdas dan paling proaktif.
Karena kami berlayar untuk penggunaan agen, itu akan membutuhkan desain yang ketat dan tes berkelanjutan, peta jalan refleksif menuju integrasi dan tinjauan konstan. Cisos harus mulai mendefinisikan kembali strategi pertahanan cybernya agar tahan terhadap ancaman yang muncul di masa depan.
Satu hal yang jelas: Dalam menghadapi ketidakpastian, kita sekarang memiliki kekuatan transformatif yang dapat mengubah aturan keamanan siber seperti yang kita ketahui, tetapi hanya jika kita bersandar pada kekuatan mereka.
Kami telah mempresentasikan kursus keamanan siber online terbaik.
Artikel ini terjadi sebagai bagian dari saluran informasi ahli TechRadarPro, di mana kami memiliki pikiran terbaik dan paling cerdas dalam industri teknologi saat ini. Pendapat yang diungkapkan di sini adalah pendapat penulis dan tidak harus dari TechRadarPro atau Future Plc. Jika Anda tertarik untuk berkontribusi pada informasi lebih lanjut di sini: