Yapay Zeka Asistanlarının Haber Sorularına Verdiği Yanıtlar İncelendi

14 dilde yürütülen bir araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından detaylı bir şekilde inceledi. Araştırma sonuçları, yapay zeka asistanlarının yanıtlarında ciddi hataların %45’inde en az bir kez görüldüğünü ve %81’inde ise bir tür sorun tespit…

0 Yorum Yapıldı
Bağlantı kopyalandı!
Yapay Zeka Asistanlarının Haber Sorularına Verdiği Yanıtlar İncelendi

14 dilde yürütülen bir araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından detaylı bir şekilde inceledi. Araştırma sonuçları, yapay zeka asistanlarının yanıtlarında ciddi hataların %45’inde en az bir kez görüldüğünü ve %81’inde ise bir tür sorun tespit edildiğini ortaya koydu.

Yanıtların Doğru Kaynak Gösterme Zorluğu

Çalışma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru bir şekilde atfetmede zorlandığını gösterdi. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimleri tespit edildi. Google’ın Gemini asistanında bu oran %72’ye kadar çıkarken, diğer platformlarda bu oran %25’in altında kaldı.

Yanlış Bilgi Sorunu ve Gelişim Çabaları

İncelenen yanıtların yaklaşık %20’sinde güncel olmayan veya yanlış bilgiler bulundu. Google, Gemini’nin kullanıcı geri bildirimleriyle sürekli olarak geliştirildiğini belirtirken, OpenAI ve Microsoft, yapay zekanın yanlış bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini açıkladı.

Hatalı Örnekler ve Çağrılar

Araştırmada, örnek olarak Gemini’nin yanlış bir yasayı aktarması ve ChatGPT’nin yanlış bir bilgi vermesi gibi hatalı örnekler görüldü. EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ilişkin yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, “Güven erozyonu demokrasiyi zayıflatabilir” dedi.

EBU, haber kuruluşlarının hataları tespit edip düzelten süreçlere sahip olmaları durumunda, yapay zeka asistanları için de benzer sorumlulukların geçerli olması gerektiğini vurguladı.

Benzer Haberler
Bayraktar AKINCI Taarruzi İHA, 150 Bin Uçuş Saatini Başarıyla Tamamladı
Bayraktar AKINCI Taarruzi İHA, 150 Bin Uçuş Saatini Başarıyla Tamamladı
TÜRKİYE, AR-GE VE İNOVASYONA ÖNCELİK VERİYOR
TÜRKİYE, AR-GE VE İNOVASYONA ÖNCELİK VERİYOR
AKKUYU NGS’DE KADIN MÜHENDİSLERDEN GÜVENLİK VE SORUMLULUK ANLATIMLARI
AKKUYU NGS’DE KADIN MÜHENDİSLERDEN GÜVENLİK VE SORUMLULUK ANLATIMLARI
Antarktika Bilim Heyeti, Türkiye’ye Döndü
Antarktika Bilim Heyeti, Türkiye’ye Döndü
BÜYÜKŞEHİR BELEDİYESİ’NDEN İLGİNÇ PROJE: UÇAK PARK HAVACILIK BİLİM MERKEZİ
BÜYÜKŞEHİR BELEDİYESİ’NDEN İLGİNÇ PROJE: UÇAK PARK HAVACILIK BİLİM MERKEZİ
TÜBİTAK’tan SAYEM Yeşil Dönüşüm 2026-1 Çağrısı Takvimi Belli Oldu
TÜBİTAK’tan SAYEM Yeşil Dönüşüm 2026-1 Çağrısı Takvimi Belli Oldu
Teknoloji'de Haberin Doğru Adresi
Copyright © 2025 Tüm hakları TEKNO SAYFA 'da saklıdır.