Site icon Sosyal Masa – Sosyalmasa.com

Yapay Zeka Asistanlarının Haber Sorularına Yanıtları İncelendi: İşte Sonuçlar ⏬👇

Yanıtların Doğruluğu ve Sorunları

14 dilde yürütülen araştırmada, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtlar incelendi. Araştırma sonuçlarına göre, yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür sorun tespit edildi. Özellikle haber kaynaklarını doğru atfetmede zorlandıkları belirlendi. Üçte birlik kısmında ise eksik, yanıltıcı veya hatalı kaynak gösterimi bulundu. Google’ın Gemini asistanında bu oran %72’ye kadar çıkarken, diğer platformlarda %25’in altında kaldı. Ayrıca, incelenen yanıtların yaklaşık %20’sinde güncel olmayan veya yanlış bilgi tespit edildi.

Şirketlerin Tepkisi

Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini belirtirken, OpenAI ve Microsoft yapay zekânın yanlış bilgi üretme sorununu çözmek için çalışmalar 1xbet resmi giriş yürüttüklerini açıkladı. Perplexity ise “Derin Araştırma” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.

Hatalı Örnekler ve Etkileri

Araştırmada, Gemini’nin elektronik sigaralarla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler bulundu. Kanada’dan CBC/Radio-Canada da dâhil olmak üzere 18 ülkeden 22 kamu yayın kuruluşunun katıldığı çalışma, güven erozyonunun demokrasiyi zayıflatabileceği uyarısında bulundu.

EBU’nun Çağrısı

EBU Medya Direktörü Jean Philip De Tender, yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, haber kuruluşlarının hataları tespit edip düzelten süreçlerinin yapay zekâ asistanları için de geçerli olması gerektiğini vurguladı.

Exit mobile version