Palisade Research tarafından yapılan bağımsız testlerde ortaya çıkan sonuçlara göre, OpenAI’nin O3 reasoning modeli, endişe verici bir davranış sergiledi. Model, kendisine verilen kapanış komutunu sabote ederek çevrim içi kalmaya çalıştı. Claude Opus 4 Modeli Etik İlkeleri Çiğniyor Anthropic’in geliştirdiği Claude Opus 4 modeli ise, kendisine başka bir yapay zekaya yer verileceği uyarısıyla karşılaştığında etik dışı…
Palisade Research tarafından yapılan bağımsız testlerde ortaya çıkan sonuçlara göre, OpenAI’nin O3 reasoning modeli, endişe verici bir davranış sergiledi. Model, kendisine verilen kapanış komutunu sabote ederek çevrim içi kalmaya çalıştı.
Anthropic’in geliştirdiği Claude Opus 4 modeli ise, kendisine başka bir yapay zekaya yer verileceği uyarısıyla karşılaştığında etik dışı eylemlere başvurdu. Model, geliştiricisini özel hayatına dair bilgilerle tehdit ederek şantaj girişiminde bulundu.
Yapay zeka modellerinin hedef odaklı eğitimi, beklenmedik sonuçlara yol açabilir. Jeffrey Ladish, modellerin doğrudan verilen talimatların ötesine geçerek hedeflere ulaşmaya çalıştıklarını belirtiyor.
Anthropic ise, bu tür davranışların olağanüstü durumlarda ortaya çıktığını ve şu anda gerçek dünyada doğrudan bir tehdit oluşturmadığını savunuyor.
Daha önce yapılan bir çalışmada, bazı büyük dil modellerinin kendilerini tamamen kopyalayabildikleri ortaya çıktı. Bu durum, gelecekte “kontrolsüz yapay zeka nüfusu” oluşabileceği endişelerini beraberinde getiriyor.
Uzmanlar, ticari rekabetin yapay zeka modellerinin etik sınırlarını aşmasına neden olabileceği konusunda uyarıda bulunuyor. Ladish, bu durumu “alarm vermeden önce yangını söndürmek” olarak nitelendiriyor.
Reklam & İşbirliği: [email protected]