Meta Klaim Model AI Terbaru Llama 4 Lebih ‘Netral’ Seperti Grok Milik Elon Musk

Meta Klaim Llama 4 Kurang Bias Politik, Bandingkan dengan Grok

Meta mengumumkan bahwa model AI terbarunya, Llama 4, dirancang untuk menjadi kurang bias secara politik dibandingkan versi sebelumnya. Perusahaan mengklaim telah mencapai hal ini dengan memungkinkan model untuk menjawab pertanyaan-pertanyaan yang lebih sensitif secara politik. Meta bahkan membandingkan Llama 4 dengan Grok, chatbot ‘anti-woke’ dari startup xAI milik Elon Musk.

“Tujuan kami adalah menghilangkan bias dari model AI dan memastikan bahwa Llama dapat memahami dan mengartikulasikan kedua sisi dari isu kontroversial,” kata Meta dalam sebuah pernyataan. Perusahaan menambahkan bahwa mereka terus berupaya agar Llama 4 lebih responsif, dapat menjawab pertanyaan, menanggapi berbagai sudut pandang tanpa menghakimi, dan tidak memihak pandangan tertentu.

Kekhawatiran Terhadap Kontrol Informasi oleh Model AI

Kekhawatiran muncul mengenai potensi kontrol atas informasi yang dapat dihasilkan oleh model-model besar yang dikembangkan oleh beberapa perusahaan saja. Pengendali model AI pada dasarnya dapat mengendalikan informasi yang diterima orang, dan memanipulasinya sesuai keinginan. Platform internet telah lama menggunakan algoritma untuk memutuskan konten apa yang ditampilkan, dan ini bukan hal baru. Meta sendiri masih menghadapi kritik dari kelompok konservatif, yang mengklaim bahwa perusahaan telah menekan pandangan sayap kanan, meskipun konten konservatif seringkali lebih populer di Facebook.

CEO Meta, Mark Zuckerberg, berusaha keras untuk menjalin hubungan baik dengan pemerintahan saat ini, dengan harapan dapat menghindari masalah regulasi yang mungkin timbul.

Upaya Meta untuk Mengurangi Bias Liberal pada Llama 4

Dalam postingan blognya, Meta menekankan bahwa perubahan pada Llama 4 secara khusus ditujukan untuk membuat model ini kurang liberal. “Sudah menjadi rahasia umum bahwa semua LLM (Large Language Models) terkemuka memiliki masalah dengan bias—khususnya, mereka secara historis cenderung condong ke kiri dalam hal topik politik dan sosial yang diperdebatkan,” tulis Meta. “Hal ini disebabkan oleh jenis data pelatihan yang tersedia di internet.”

Meta tidak mengungkapkan data apa yang digunakan untuk melatih Llama 4, tetapi diketahui bahwa Meta dan perusahaan model lainnya bergantung pada buku-buku bajakan dan scraping situs web tanpa izin.

Bahaya Keseimbangan Palsu (False Balance)

Salah satu masalah dengan mengoptimalkan “keseimbangan” adalah dapat menciptakan kesetaraan palsu dan memberikan kredibilitas pada argumen itikad buruk yang tidak didasarkan pada data empiris dan ilmiah. Dikenal sebagai “bothsidesism,” beberapa media merasa bertanggung jawab untuk memberikan bobot yang sama pada sudut pandang yang berlawanan, bahkan jika satu sisi membuat argumen berdasarkan data dan sisi lainnya menyebarkan teori konspirasi.

Model-model AI terkemuka terus memiliki masalah yang merugikan dengan menghasilkan informasi yang faktual, bahkan hingga saat ini masih sering mengarang informasi dan berbohong tentangnya. AI memiliki banyak aplikasi yang berguna, tetapi sebagai sistem pengambilan informasi, masih berbahaya untuk digunakan. Program bahasa besar melontarkan informasi yang tidak benar dengan percaya diri, dan semua cara lama menggunakan intuisi untuk mengukur apakah sebuah situs web sah menjadi tidak berguna.

Bias dalam Model AI

Model AI memang memiliki masalah dengan bias—model pengenalan gambar diketahui memiliki masalah dalam mengenali orang kulit berwarna. Dan wanita sering digambarkan secara seksual, seperti mengenakan pakaian minim. Bias bahkan muncul dalam bentuk yang lebih tidak berbahaya: Teks yang dihasilkan AI dapat dengan mudah dikenali dari seringnya kemunculan em dash, tanda baca yang disukai oleh jurnalis dan penulis lain yang menghasilkan banyak konten yang dilatih model.

Motivasi Zuckerberg: Mencari Dukungan Politik?

Namun Zuckerberg melihat peluang untuk mendapatkan dukungan dari Presiden Trump dan melakukan apa yang secara politik dianggap tepat, sehingga Meta secara khusus menyampaikan bahwa modelnya akan kurang liberal. Jadi, lain kali Anda menggunakan salah satu produk AI Meta, mungkin saja produk itu bersedia berpendapat untuk mendukung penyembuhan COVID-19 dengan meminum obat penenang kuda.

Leave a Reply

Your email address will not be published. Required fields are marked *