14 dilde yürütülen bir araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından detaylı bir şekilde inceledi. Araştırma sonuçları, yapay zeka asistanlarının yanıtlarında ciddi hataların %45’inde en az bir kez görüldüğünü ve %81’inde ise bir tür sorun tespit…
14 dilde yürütülen bir araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından detaylı bir şekilde inceledi. Araştırma sonuçları, yapay zeka asistanlarının yanıtlarında ciddi hataların %45’inde en az bir kez görüldüğünü ve %81’inde ise bir tür sorun tespit edildiğini ortaya koydu.
Çalışma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru bir şekilde atfetmede zorlandığını gösterdi. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimleri tespit edildi. Google’ın Gemini asistanında bu oran %72’ye kadar çıkarken, diğer platformlarda bu oran %25’in altında kaldı.
İncelenen yanıtların yaklaşık %20’sinde güncel olmayan veya yanlış bilgiler bulundu. Google, Gemini’nin kullanıcı geri bildirimleriyle sürekli olarak geliştirildiğini belirtirken, OpenAI ve Microsoft, yapay zekanın yanlış bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini açıkladı.
Araştırmada, örnek olarak Gemini’nin yanlış bir yasayı aktarması ve ChatGPT’nin yanlış bir bilgi vermesi gibi hatalı örnekler görüldü. EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ilişkin yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, “Güven erozyonu demokrasiyi zayıflatabilir” dedi.
EBU, haber kuruluşlarının hataları tespit edip düzelten süreçlere sahip olmaları durumunda, yapay zeka asistanları için de benzer sorumlulukların geçerli olması gerektiğini vurguladı.
Reklam & İşbirliği: [email protected]