Araştırma: Yapay zeka haber içeriklerini yanlış aktarıyor

Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan yeni bir araştırma, önde gelen yapay zeka asistanlarının haber içeriklerini neredeyse her iki durumdan birinde yanlış aktardığını tespit etti.
14 dilde yürütülen araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş–gerçek ayrımı açısından inceledi.
Sonuçlara göre yanıtların yüzde 45’inde en az bir ciddi hata, yüzde 81’inde ise bir tür sorun tespit edildi.
Çalışma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru atfetmede zorlandığını ortaya koydu. Yanıtların üçte birinde “eksik, yanıltıcı veya hatalı kaynak gösterimi” bulundu.
Araştırmada, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hala görevde olduğunu bildirdiği örnekler yer aldı.
Çalışmaya, Kanada’dan CBC/Radio-Canada da dahil olmak üzere Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD’den 18 ülkedeki 22 kamu yayın kuruluşu katıldı.
Google’ın Gemini asistanında bu oran yüzde 72’ye kadar çıkarken, diğer tüm platformlarda bu oran yüzde 25’in altında kaldı. Ayrıca, incelenen tüm yanıtların yaklaşık yüzde 20’sinde güncel olmayan veya yanlış bilgi bulundu.
Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini belirtti. OpenAI ve Microsoft ise “halüsinasyon” olarak bilinen, yapay zekanın yanlış veya uydurma bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini daha önce açıklamıştı.
Perplexity, “Derin Araştırma” (Deep Research) modunun yüzde 93,9 doğruluk oranına sahip olduğunu iddia ediyor.