Yapay zeka sohbet robotları (chatbotlar) günümüzde yaygın olarak kullanılmakta ancak yanıltıcı bilgiler ve “halüsinasyonlar” gibi sorunlar da beraberinde gelmektedir. OpenAI’nin son araştırması, yapay zeka modellerinde beklenenin aksine halüsinasyonların arttığını ortaya koyuyor. Yanlış Bilgiler Artıyor OpenAI’nin testlerinde, GPT-o3 modeli %33 oranında yanıltıcı bilgiler verirken bu oran GPT-o1’e göre iki kat daha fazla. Daha kompakt olan GPT…
Yapay zeka sohbet robotları (chatbotlar) günümüzde yaygın olarak kullanılmakta ancak yanıltıcı bilgiler ve “halüsinasyonlar” gibi sorunlar da beraberinde gelmektedir. OpenAI’nin son araştırması, yapay zeka modellerinde beklenenin aksine halüsinasyonların arttığını ortaya koyuyor.
OpenAI’nin testlerinde, GPT-o3 modeli %33 oranında yanıltıcı bilgiler verirken bu oran GPT-o1’e göre iki kat daha fazla. Daha kompakt olan GPT o4-mini ise %48 oranında yanıltıcı bilgi üretti. Yapay zeka modellerinin çok düşünmesi aslında hatalara yol açabilir.
Önceki modeller akıcı metinler üretmekte başarılıydı ancak o3 ve o4-mini insan mantığını taklit etmek amacıyla adım adım düşünme programlamasıyla geliştirildi. Bu yeni “düşünme” tekniği paradoksal bir şekilde sorun yaratabilir.
Yapay zeka araştırmacıları, modelin ne kadar fazla düşünme yaparsa yanlış yola sapma olasılığının o kadar arttığını belirtiyor. Yeni modeller karmaşık kavramları yanlış bir şekilde yorumlayabiliyor.
Yapay zeka, hukuki, tıbbi, eğitim veya devlet hizmetlerinde kullanıldığında büyük riskler taşıyor. Yanıltıcı bilgilerin felakete yol açabileceği durumlar da göz ardı edilmemeli.
Yapay zeka halüsinasyonlarının artması, doğrudan düşünme biçimiyle değil, modelin anlatımındaki bolluk ve cesaretle ilişkilendiriliyor. Yapay zeka hayatımıza daha fazla entegre olduğunda, hata yapma olasılığı da artabilir. Bu nedenle, yapay zekanın güvenilirliği ve doğruluğu her zaman göz önünde bulundurulmalıdır.
Reklam & İşbirliği: [email protected]