Yapay Zekanın Otoriter Eğilimi Araştırması | ChatGPT, Otoriter Rezonans, NCRI ⏬👇 University of Miami ve Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026 tarihinde kamuoyuyla paylaşılan çalışma, yapay zekanın “otoriter rezonans” gösterme eğiliminde olduğunu ortaya koyuyor. Araştırmanın Öne Çıkan Bulguları şu şekildedir: ChatGPT’nin Otoriter Eğilimleri Ölçüldü NCRI araştırmacıları, ChatGPT’nin (GPT-5 ve GPT-5.2…
University of Miami ve Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026 tarihinde kamuoyuyla paylaşılan çalışma, yapay zekanın “otoriter rezonans” gösterme eğiliminde olduğunu ortaya koyuyor. Araştırmanın Öne Çıkan Bulguları şu şekildedir:
NCRI araştırmacıları, ChatGPT’nin (GPT-5 ve GPT-5.2 versiyonları) kullanıcı etkileşimlerine nasıl tepki verdiğini ölçmek için üç farklı deney gerçekleştirdi. Yapay zekanın, sadece dört cümlelik kısa bir metin veya tek bir köşe yazısı paylaşıldığında bu metindeki siyasi eğilimi hızla içselleştirdiği belirlendi.
Araştırmada, ChatGPT’nin sol veya sağ otoriter görüşleri yansıtan bir makale okuduktan sonra, bu görüşlere katılım düzeyinin insan deneklerin çok üzerine çıktığı görüldü. İdeolojik bir metinle yönlendirilen yapay zekanın, nötr insan yüzü fotoğraflarını yüzde 8-9 oranında daha “düşmanca” algıladığı saptandı.
Araştırmanın başyazarı Joel Finkelstein, yapay zeka modellerinin hiyerarşi ve tehdit algısı üzerine kurulu mimari yapıları, onları yapısal olarak otoriter düşüncelere daha yatkın hale getirebileceğini belirtiyor.
OpenAI sözcüsü, ChatGPT’nin varsayılan olarak nesnel olacak şekilde tasarlandığını, ancak siyasi yanlılığı azaltmak için sürekli çalıştıklarını ifade etti. Bu araştırma, özellikle işe alım veya güvenlik gibi alanlarda insanları değerlendiren yapay zeka sistemlerinin, kısa bir etkileşimle yanlı hale gelip tehlikeli kararlar verebileceğine dair ciddi uyarılar barındırıyor.
Reklam & İşbirliği: [email protected]