Sebuah studi menemukan bahwa sebagian besar asisten AI menyebarkan berita palsu, dengan Google Gemini menempati peringkat teratas dalam hal jumlah kesalahan

Sebuah studi menemukan bahwa sebagian besar asisten AI menyebarkan berita palsu, dengan Google Gemini menempati peringkat teratas dalam hal jumlah kesalahan

Sebuah studi menemukan bahwa sebagian besar asisten AI menyebarkan berita palsu, dengan Google Gemini menempati peringkat teratas dalam hal jumlah kesalahan

Liga335 – Baca Selengkapnya
Studi ini mengevaluasi kinerja asisten AI dalam menjawab pertanyaan seputar berita, dengan fokus pada akurasi, sumber informasi, dan kemampuan membedakan antara fakta dan opini. Penelitian ini dilakukan dalam 14 bahasa, mengevaluasi asisten yang banyak digunakan seperti ChatGPT, Copilot, Gemini, dan Perplexity.
Secara total, 22 organisasi media layanan publik dari 18 negara, termasuk Prancis, Jerman, Spanyol, Ukraina, Inggris, dan Amerika Serikat, turut berpartisipasi.

Temuan menunjukkan bahwa 45 persen dari tanggapan mengandung setidaknya satu masalah signifikan, sementara 81 persen mencakup beberapa bentuk masalah.

Studi mencantumkan asisten AI dengan masalah serius

Kesalahan sumber menjadi perhatian khusus, dengan sepertiga dari semua respons asisten AI menunjukkan masalah serius seperti atribusi yang hilang, menyesatkan, atau salah. Asisten Gemini dari Google memiliki tingkat masalah sumber yang sangat tinggi, dengan 72 persen responsnya terpengaruh, dibandingkan dengan kurang dari 25 persen untuk asisten utama lainnya asisten AI.
Masalah terkait akurasi ditemukan pada 20 persen dari seluruh jawaban, termasuk informasi yang sudah usang dan kesalahan fakta.

Contohnya antara lain Gemini yang salah melaporkan perubahan undang-undang mengenai vape sekali pakai dan ChatGPT yang menyatakan bahwa Paus Fransiskus masih menjabat sebagai Paus beberapa bulan setelah kematiannya.
Seiring dengan semakin populernya asisten AI sebagai alternatif mesin pencari berita tradisional, muncul kekhawatiran bahwa ketidakakuratan mereka dapat merusak kepercayaan publik. EBU telah menyoroti risiko potensial yang ditimbulkan oleh kesalahan-kesalahan ini, dengan menekankan pentingnya informasi yang dapat diandalkan bagi masyarakat demokratis.

Dalam sebuah pernyataan, Direktur Media EBU Jean Philip De Tender mengatakan, “Ketika orang tidak tahu apa yang harus dipercaya, mereka akhirnya tidak mempercayai apa pun, dan hal itu dapat menghambat partisipasi demokratis.”
Laporan tersebut juga menemukan bahwa, selain masalah sumber informasi, asisten AI kesulitan membedakan antara fakta dan opini. Meskipun perusahaan telah diberi tahu mengenai masalah-masalah ini Namun, beberapa pihak mengakui perlunya perbaikan berkelanjutan.

“Gemini, asisten AI Google, sebelumnya telah menyatakan di situs webnya bahwa mereka menyambut masukan agar dapat terus meningkatkan platform dan menjadikannya lebih bermanfaat bagi pengguna.”

Halusinasi merupakan masalah mendesak dalam AI

Perusahaan teknologi terkemuka lainnya menyadari masalah yang disebut halusinasi, di mana model AI menghasilkan informasi yang salah atau menyesatkan. “OpenAI dan Microsoft sebelumnya telah menyatakan bahwa halusinasi, yaitu ketika model AI menghasilkan informasi yang salah atau menyesatkan, sering kali disebabkan oleh faktor-faktor seperti data yang tidak memadai, merupakan masalah yang sedang mereka upayakan untuk diselesaikan.” Perplexity menyoroti di situs webnya bahwa salah satu mode yang dimilikinya berfokus pada peningkatan akurasi faktual, dengan menyatakan, “Perplexity menyebutkan di situs webnya bahwa salah satu mode ‘Deep Research’ miliknya memiliki akurasi sebesar 93,9 persen dalam hal faktualitas.”

Seiring asisten AI terus menjadi semakin populer dalam cara individu mengakses berita, para penulis laporan dan organisasi media yang berpartisipasi Berbagai organisasi mendesak agar dilakukan perbaikan guna memastikan informasi yang andal, transparan, dan akurat dapat disampaikan kepada pengguna di seluruh dunia.

– Selesai