Apa yang terjadi: Jadi, ada Ted Sarandos, CEO Netflix, yang berbicara tentang bagaimana AI adalah alat baru yang luar biasa yang akan membantu orang “bercerita dengan lebih baik, lebih cepat, dan dengan cara baru”. Kedengarannya bagus, bukan?
- Namun inilah kenyataannya: Meskipun dia mengatakan hal tersebut, alat pembuat video OpenAI yang baru, Sora 2, digunakan untuk membanjiri Internet dengan beberapa konten paling jelek yang bisa dibayangkan.
- Kita semua berbicara tentang gelombang video “komedi” yang bersifat fatfobia dan rasis di Instagram, YouTube, dan TikTok. Orang-orang menggunakan Sora 2 – yang dapat membuat klip yang sangat realistis – untuk membuat dan berbagi video agar menjadi brutal.
- Contoh-contohnya sungguh buruk. Berikut adalah klip viral, yang telah dilihat hampir satu juta kali, tentang seorang wanita yang kelebihan berat badan melakukan bungee jumping, namun jembatan di bawahnya “runtuh”. Video lainnya menunjukkan seorang wanita kulit hitam “jatuh dari lantai KFC”, yang merupakan perpaduan menjijikkan antara rasisme dan rasa malu terhadap tubuh. Lalu ada pula yang menunjukkan supir pengantar barang terjatuh dari beranda atau “kembung” setelah makan.
- Dan bagian yang paling menakutkan? Banyak orang yang menonton video ini mengira itu nyata.
Mengapa ini penting: Ini adalah masalah besar AI yang tidak ingin dibicarakan oleh siapa pun. Mereka telah menjadikan pembuatan konten kebencian sebagai steroid.
- Apa yang biasanya membutuhkan banyak waktu bagi seseorang yang memiliki keterampilan produksi nyata untuk berkreasi, kini dapat diproduksi oleh pembenci mana pun dalam hitungan detik.
- Ini bukan sekadar “selera buruk”—ini adalah krisis moral yang nyata. Ini adalah cara untuk memproduksi secara massal dan melestarikan stereotip paling berbahaya tentang orang-orang, semuanya hanya untuk ditertawakan.
- Hal ini juga membuktikan bahwa perusahaan-perusahaan AI, seperti OpenAI, adalah “orang-orang bodoh” yang mengklaim bahwa alat-alat mereka gagal. sangat buruk. Ini seharusnya memblokir jenis konten yang penuh kebencian dan kekerasan, tetapi jelas tidak.

Mengapa saya harus peduli: Jika Anda menggunakan media sosial, Anda pasti sudah melihatnya. Ini bukan sekedar trolling online yang tidak berbahaya.
- Sampah ini membentuk cara orang memandang dunia, terutama anak-anak.
- Dan karena banyak orang tidak dapat membedakan antara apa yang dihasilkan oleh AI dan apa yang nyata, hal ini benar-benar mengaburkan batas antara kenyataan, humor gelap, dan kebencian yang murni dan tidak beralasan.
- Dan, tentu saja, ketika salah satu video ini menjadi viral, hal itu hanya akan mendorong lebih dari selusin orang untuk membuat versi mereka sendiri untuk mendapatkan klik dan “suka”.
Apa selanjutnya: Sejauh ini, OpenAI sama sekali bungkam mengenai gelombang baru konten fatfobia ini.
- Namun hal ini memaksa adanya perbincangan yang sangat diperlukan dan tidak nyaman mengenai siapa yang bertanggung jawab ketika alat-alat canggih ini digunakan untuk menyakiti dan mengganggu orang.
- Regulator pasti mulai menaruh perhatian. Ketika alat AI ini menjadi mudah digunakan sebagai filter, tantangan sebenarnya adalah mencari tahu bagaimana kita menghentikan semua “kreativitas” ini dengan mengorbankan kemanusiaan kita.