Kegagalan Ujian Pengacara Kim Kardashian Mengungkapkan Tren ‘Berbahaya’, Para Ahli Memperingatkan

Kegagalan Ujian Pengacara Kim Kardashian Mengungkapkan Tren ‘Berbahaya’, Para Ahli Memperingatkan

Kegagalan publik Kim Kardashian untuk lulus ujian hukum utama, setelah mengandalkan ChatGPT untuk mendapatkan nasihat hukum, telah menghidupkan kembali perdebatan tentang bahaya penggunaan kecerdasan buatan generatif (AI) dalam konteks profesional yang berisiko tinggi. Seiring dengan semakin berkembangnya adopsi AI di bidang hukum, medis, dan industri lainnya, pengalaman bintang reality TV ini menyoroti kekhawatiran bahwa halusinasi yang ditimbulkan oleh AI dapat merusak kepercayaan publik, menciptakan tanggung jawab hukum, dan menyesatkan baik pelajar maupun profesional.

minggu berita Perwakilan Kardashian menghubungi melalui email pada hari Jumat untuk memberikan komentar.

Kim Kardashian gagal dalam ujian pengacara

Kardashian—salah satu pendiri SKIMS dan calon pengacara—mengungkapkannya dalam a Pameran Kesombongan wawancara awal bulan ini, dia menggunakan ChatGPT untuk menjawab pertanyaan hukum saat belajar untuk ujian sekolah hukumnya. Menurut Kardashian, chatbot AI sering memberikan jawaban yang salah, sehingga berkontribusi pada kegagalan beberapa tes hukum.

“Saya pakai (ChatGPT) untuk nasehat hukum, jadi ketika saya ingin tahu jawaban sebuah pertanyaan, saya ambil gambarnya, ambil dan taruh di sana. Mereka selalu salah. Itu yang membuat saya gagal dalam ujian,” kata yang Semuanya adil kata aktris tersebut, menggambarkan bagaimana respons alat tersebut yang percaya diri, namun tidak akurat, secara langsung menyebabkan kemundurannya.

Pencalonan pria berusia 45 tahun ini memusatkan perhatian publik pada tren yang lebih luas: mahasiswa hukum dan profesional semakin banyak menggunakan alat AI generatif seperti ChatGPT untuk penelitian, penulisan disertasi, dan pembelajaran untuk ujian. Meskipun dirancang sebagai mesin prediksi dan bukan database faktual, alat ini sering kali memberikan informasi yang tampaknya masuk akal namun salah. Profesi hukum telah mendokumentasikan beberapa kasus pengacara yang menyerahkan dokumen pengadilan yang berisi kutipan yang tidak dihasilkan oleh AI, sehingga mengakibatkan tindakan disipliner dan sanksi di Amerika Serikat dan internasional.

Kardashian tetap tidak terpengaruh dengan ambisi hukumnya, dengan mengumumkan rencana untuk mengikuti kembali ujian pengacara California dan melanjutkan sekolah hukum, namun kisahnya telah mendorong para ahli untuk mengeluarkan peringatan baru tentang batasan kecerdasan buatan dalam lingkungan hukum.

Bahaya ChatGPT

“Kim Kardashian mengatakan bahwa dia menggunakan ChatGPT untuk nasihat hukum sama seperti mengatakan Anda menyewa Magic 8 Ball sebagai rekan penasihat. AI bisa tampil percaya diri namun sebenarnya salah, dan, dari sudut pandang hukum, itu adalah kombinasi yang berbahaya,” kata Duncan Levin, mantan jaksa dan profesor hukum di Universitas Harvard. minggu berita.

Dia menambahkan bahwa “risikonya bukan karena dia belajar dengan menggunakan teknologi”, namun jutaan pengikutnya “mungkin berpikir bahwa keahlian hukum dapat dijangkau”.

“Melewati standar memerlukan penilaian, etika, dan pengalaman: tiga hal yang tidak dimiliki algoritma. ChatGPT dapat menulis permohonan yang baik, namun tidak dapat membuat Anda keluar dari penjara,” kata Levin.

Matthew Sag, profesor hukum di Fakultas Hukum Universitas Emory, mencatat dalam sebuah pernyataan kepada minggu berita bahwa “AI generatif dapat menjadi alat yang sangat berguna bagi para pengacara, namun hanya jika digunakan oleh orang-orang yang benar-benar memahami hukum.

“Semua yang disampaikan ChatGPT kepada Anda tentang undang-undang tersebut akan tampak masuk akal, namun berbahaya jika Anda tidak memiliki keahlian atau konteks untuk melihat apa yang hilang dan apa yang palsu,” katanya.

Menurut OpenAI, pencipta ChatGPT, halusinasi adalah “kasus di mana seorang model dengan percaya diri menghasilkan respons yang tidak benar.”

Kata Pengacara dan pakar AI Logan Brown minggu berita bahwa “ChatGPT (dan alat AI lainnya) bisa dan sering kali salah.”

“Sistem ini tampak dapat diandalkan meskipun faktanya salah, dan hal ini bisa berbahaya jika orang mengandalkan sistem ini untuk hal-hal serius seperti nasihat hukum,” katanya. “Sebenarnya berisiko menggunakan ChatGPT sebagai otoritas dalam menentukan pilihan hukum tanpa nasihat yang dapat diandalkan. Itulah sebabnya kami melarangnya.”

Harry Surden, profesor hukum di Fakultas Hukum Universitas Colorado, menambahkan: “Ketika seseorang memiliki pertanyaan hukum, pilihan terbaik adalah berbicara dengan pengacara, jika tersedia. Namun, penelitian menunjukkan bahwa hampir 80% orang Amerika memiliki masalah hukum tetapi tidak memiliki akses atau tidak mampu membayar pengacara. Dalam situasi seperti ini, ChatGPT mungkin merupakan peningkatan dari alternatif-alternatif ini. Memberikan jawaban yang cukup masuk akal terhadap pertanyaan hukum dasar. »

Ia mengklarifikasi: “Untuk lebih jelasnya, saya tidak merekomendasikan penggunaan AI untuk permasalahan hukum yang rumit, dan dalam kasus ini orang harus selalu meminta nasihat dari pengacara. Namun untuk pertanyaan hukum dasar yang mana bantuan hukum bukanlah suatu pilihan, AI cenderung merupakan perbaikan dibandingkan alternatif lain, yang sering kali berupa dugaan atau nasihat hukum yang buruk dari teman dan keluarga.

Akibat dari ketergantungan yang berlebihan

Mark Bartholomew, profesor hukum dan dekan untuk penelitian dan pengembangan fakultas di Universitas Buffalo School of Law, mengatakan: minggu berita bahwa apa yang “dilakukan Kardashian adalah baik”, tetapi “bahayanya adalah ketergantungan yang berlebihan”.

“Seperti di bidang lain, AI mendisrupsi pendidikan hukum. Tidak ada cara yang bisa memisahkan sepenuhnya pendidikan hukum dari AI,” jelasnya. “AI berhalusinasi: ia mengarang kasus dan bisa membuat hukum salah. Jadi mahasiswa hukum mana pun atau pengacara yang bertanggung jawab harus memeriksa jawaban chatbot atas pertanyaan mereka. Selain itu, menjadi pengacara melibatkan lebih dari sekadar mencari jawaban. Pengacara harus mengembangkan keterampilan mereka dengan membaca banyak kasus, menganalisis undang-undang, menyusun argumen, dll. Saya khawatir bahwa ketergantungan yang berlebihan pada AI oleh mereka yang mempelajari hukum dapat menghambat perkembangan mereka sebagai pengacara. Terkadang tidak ada pengganti untuk melakukan pekerjaan itu sendiri.”

Anat Lior, asisten profesor hukum di Fakultas Hukum Thomas R. Kline Universitas Drexel, menyuarakan peringatan tentang kepercayaan: “Ketika (Kardashian) membahas bagian wawancara ini, dia langsung mengatakan bahwa ‘mereka selalu salah’ dan menyarankan bahwa penggunaan alat tersebut menyebabkan dia gagal. Ketergantungannya pada alat tersebut dan pengakuan bahwa dia sering memberikan jawaban yang salah merupakan peringatan penting bagi siapa pun yang menggunakan ChatGPT untuk situasi berisiko tinggi, seperti belajar untuk ujian atau ujian apa pun dengan konsekuensi nyata.”

“Masalah” AI yang Muncul

Frank Pasquale, profesor hukum di Cornell Tech dan Cornell Law School, mencatat bahwa dokumen hukum yang salah yang dihasilkan oleh AI “sudah menjadi masalah besar”.

“Banyak pengacara yang dikenakan sanksi karena mengutip kasus-kasus palsu, khususnya di Amerika Serikat dan Australia. Masalahnya hanya akan bertambah buruk ketika AI menyebar,” katanya.

Bartholomew setuju dan mengatakan: “Kami memang telah melihat banyak masalah dengan penggunaan AI untuk menghasilkan dokumen hukum. Masalahnya adalah pengacara mengandalkan tanggapan chatbot tanpa memverifikasinya, lalu menyerahkan laporan hukum yang berisi omong kosong yang dibuat-buat.

Apa yang terjadi selanjutnya?

Terlepas dari risikonya, para ahli hukum sepakat bahwa AI generatif kemungkinan akan tetap menjadi bagian penting dari praktik profesional.

Konsensusnya adalah bahwa alat AI seharusnya hanya berfungsi sebagai titik awal – yang harus melalui tinjauan manusia yang ketat – dan bukan sebagai pengganti nasihat hukum yang berkualitas. Bagi pelajar, profesional, dan masyarakat umum, pengalaman Kardashian menggarisbawahi kebutuhan penting untuk mendekati temuan AI dengan skeptis dan menjunjung standar tradisional tanggung jawab profesional ketika nyawa dan penghidupan dipertaruhkan.

Tautan Sumber