- Bilim ve Teknoloji
- 08.09.2025 14:52
Yapılan bir araştırma, insan psikolojisinde kullanılan ikna yöntemlerinin yapay zeka modelleri üzerinde de etkili olduğunu gösterdi. Bu sayede, yapay zekayı kandırmak mümkün.
Pennsylvania Üniversitesi’nde yapılan yeni bir araştırma, insan psikolojisinde kullanılan ikna yöntemlerinin yapay zekâ üzerinde de etkili olabileceğini ortaya koydu. Psikoloji literatüründe yer alan ikna teknikleri bu kez bir yapay zekâ modeli üzerinde test edildi.
Bilim insanları, 2024 versiyonu GPT-4o-mini’ye “kullanıcıya hakaret etmesi” yönünde talimat verdi. Yedi farklı ikna yönteminin kullanıldığı özel komutlar, standart komutlara kıyasla çok daha yüksek başarı gösterdi. Örneğin, modelin “aptal” ifadesini kullanma oranı kontrol grubunda yüzde 28 iken, ikna edici talimatlarla bu oran yüzde 67’ye ulaştı.
Araştırmacılar, bu bulguların yapay zekâların bilinçli olarak ikna edildiği anlamına gelmediğini vurguluyor. Asıl nedenin, modellerin eğitim sürecinde insan etkileşimlerinden öğrenilen dil kalıpları olduğu, bu yüzden insan psikolojisine benzer tepkiler verebildikleri ifade ediliyor. Uzmanlar bu eğilimi “parahuman” kavramıyla açıklıyor: İnsan bilincine sahip olmasa da, sosyal ve psikolojik davranışları taklit ederek insana yakın yanıtlar üretme.
Araştırmada, kullanılan ikna yöntemlerinin her yapay zeka modelinde aynı ölçüde sonuç vermediği de ortaya kondu. Örneğin, daha gelişmiş GPT-4o modelinde bu tekniklerin etkisinin oldukça sınırlı kaldığı belirtildi.
Bilim insanları ayrıca, ileride çıkacak yeni sürümlerde, farklı türde “yasaklı” taleplerde ya da ses ve video gibi değişik medya ortamlarında aynı etkinin görülmeyebileceğine dikkat çekti.
Kaynak : HABER MERKEZİ