OmniPredict adı verilen yeni sistem, insanların görsel ve bağlamsal ipuçlarını gerçek zamanlı olarak yorumlayarak niyetlerini anlama yeteneği sergiliyor. Yayaların davranışlarını öngören bu teknoloji, Çok Modlu Büyük Dil Modeli (MLLM) kullanarak yayaların nasıl davranacağını tahmin ediyor. Dr. Srikanth Saripalli liderliğindeki ekip, bu sistem sayesinde makinelerin insan davranışlarını da tahmin edebileceği bir geleceğe adım atmış oluyor. İnsan…
OmniPredict adı verilen yeni sistem, insanların görsel ve bağlamsal ipuçlarını gerçek zamanlı olarak yorumlayarak niyetlerini anlama yeteneği sergiliyor. Yayaların davranışlarını öngören bu teknoloji, Çok Modlu Büyük Dil Modeli (MLLM) kullanarak yayaların nasıl davranacağını tahmin ediyor. Dr. Srikanth Saripalli liderliğindeki ekip, bu sistem sayesinde makinelerin insan davranışlarını da tahmin edebileceği bir geleceğe adım atmış oluyor.
OmniPredict, araçlara insan benzeri bir sezgi kazandırarak otonom sürüşü daha güvenli hale getiriyor. Sistem, yayaların mevcut hareketlerine tepki vermek yerine, bir kişinin bir sonraki adımda ne yapacağını önceden kestirebiliyor. Bu sayede, özellikle yoğun kentsel ortamlarda otonom araçların daha güvenli ve akıcı bir şekilde hareket etmesi sağlanabiliyor.
OmniPredict’in kullanım alanları sadece şehir içi yollarla sınırlı kalmıyor. Sistem, vücut duruşundaki değişiklikleri, tereddütleri veya stres belirtilerini okuyarak askeri operasyonlar ve acil durum müdahaleleri için de önemli bir araç olabilir. Tehdit oluşturabilecek davranışların erkenden tespit edilmesi, güvenlik personeline durumsal farkındalık ve hızlı karar verme yeteneği kazandırabilir.
OmniPredict, geleneksel otonom sistemlerden farklı olarak, görsel algıyı davranışsal muhakeme ile birleştiriyor. Yapay zeka desteğiyle yüzde 67 doğruluk oranına ulaşan bu sistem, en güncel modelleri geride bırakarak yüksek performans sergiliyor. Yapay zeka, yayaların kısmen gizlendiği veya araca doğru baktığı karmaşık senaryolarda bile etkin bir şekilde çalışmaya devam ediyor.
Reklam & İşbirliği: [email protected]