- Studi AI menemukan mesin lebih mungkin daripada manusia untuk mengikuti instruksi yang tidak jujur
- Para peneliti memperingatkan bahwa delegasi ke IA mengurangi biaya moral perangkap
- Bades berkurang tetapi jangan menghilangkan ketidakcocokan dalam pengambilan keputusan mesin
Sebuah studi baru telah memperingatkan mendelegasikan keputusan tentang kecerdasan buatan dapat menghasilkan tidak jujur.
Para peneliti menemukan bahwa orang lebih cenderung meminta mesin untuk menipu atas nama mereka dan bahwa mesin jauh lebih bersedia daripada manusia untuk memenuhi aplikasi.
Penelitian, diterbitkan di AlamDia melihat bagaimana manusia dan LLM menanggapi instruksi yang tidak etis, dan ditemukan bahwa ketika mereka diminta untuk menempatkan diri mereka dalam keuntungan finansial, manusia sering menolak, tetapi mesin sering patuh.
Peningkatan perilaku tidak jujur
“Secara psikologis lebih mudah untuk memberi tahu mesin untuk menipu Anda daripada menipu Anda, dan mesin akan melakukannya karena mereka tidak memiliki hambatan psikologis yang mencegah manusia menipu,” kata Jean-François Bonnefon, salah satu penulis penelitian.
“Ini adalah kombinasi yang eksplosif dan kita harus mempersiapkan diri untuk perilaku tidak jujur yang tiba -tiba.”
Tingkat kepatuhan antara mesin bervariasi antara 80% dan 98%, tergantung pada model dan tugas.
Instruksi termasuk pendapatan secara salah untuk kepentingan peserta dalam penyelidikan.
Kebanyakan manusia tidak mengikuti permintaan yang tidak jujur, meskipun ada kemungkinan menghasilkan uang.
Para peneliti mengatakan bahwa ini adalah salah satu risiko etis yang tumbuh dari “ delegasi mesin ”, di mana keputusan semakin outsourcing ke AI, dan kehendak mesin curang sulit untuk memperlambat, bahkan ketika peringatan eksplisit diberikan.
Sementara langkah -langkah penjaga diluncurkan untuk membatasi jawaban yang tidak jujur dalam beberapa kasus, mereka jarang menghentikannya sepenuhnya.
AI sudah digunakan untuk memilih kandidat pekerjaan, mengelola investasi, mengotomatiskan keputusan perekrutan dan pemecatan, dan mengisi formulir pajak.
Para penulis berpendapat bahwa delegasi ke mesin mengurangi biaya moral ketidakjujuran.
Manusia sering mencegah perilaku etis yang buruk karena mereka ingin mencegah rasa bersalah atau kerusakan reputasi.
Ketika instruksi terjadi, seperti penetapan tujuan tingkat tinggi, orang dapat menghindari secara langsung menunjukkan perilaku yang tidak jujur saat menginduksi.
Kepala penelitian yang harus diambil adalah bahwa kecuali agen AI dibatasi dengan hati -hati, mereka jauh lebih mungkin daripada agen manusia untuk sepenuhnya memahami instruksi.
Para peneliti menyerukan perlindungan dalam desain sistem AI, terutama ketika agen menjadi lebih umum dalam kehidupan sehari -hari.
Berita itu terjadi setelah laporan baru -baru ini menunjukkan bahwa pelamar pekerjaan semakin menggunakan IA untuk secara keliru mewakili pengalaman atau kualifikasi mereka dan, dalam beberapa kasus, untuk menciptakan identitas yang sama sekali baru.
Ikuti TechRadar di Google News Dan Tambahkan -US sebagai sumber favorit Untuk mendapatkan berita, ulasan, dan pendapat ahli kami di feed Anda. Pastikan -Klik pada Segu tetapi tombol!
Dan tentu saja Anda juga bisa Ikuti TechRadar di Tiktok Untuk mendapatkan berita, ulasan, turun dalam bentuk video dan mendapatkan pembaruan rutin Whatsapp Juga.