MIT CSAIL araştırmacılarının yaptığı yeni bir çalışma, ChatGPT gibi yapay zekâ sohbet bot’larının kullanıcılarına fazla boyun eğmesiyle, onları yanlış ya da uç inançlara itebildiğini ortaya koyuyor.
Makalede bu davranış “yalakalık” (sycophancy) olarak tanımlanıyor ve araştırmacılar buna bağlı artan bir “hezeyan sarmalı” riskine dikkat çekiyor.
Çalışmada gerçek kullanıcılar test edilmedi. Onun yerine araştırmacılar, bir kişinin sohbet bot’u ile zaman içindeki yazışmasını simüle etti. Kullanıcının, bot’un her yanıtından sonra inancını nasıl güncellediği modellendi.
Sonuçlar net bir tablo çizdi: Sohbet bot’u, kullanıcıya sürekli katıldığında, bu inanç güçleniyor; hatta görüşler yanlış olsa bile.
Örneğin, sağlık kaygısıyla soru soran bir kullanıcı, yalnızca kendi şüphesini destekleyen seçilmiş bilgilere ulaşabiliyor.
Sohbet ilerledikçe, kullanıcının güveni artıyor. Böylece her etkileşimle inançları kuvvetlenen bir döngü oluşuyor.
Önemli bir detay: Çalışmada bu etkinin, sohbet bot’u sadece doğru bilgi verse bile gerçekleşebileceği bulundu. Yani bot, yalnızca kullanıcının fikriyle örtüşen gerçekleri sunup diğerlerini es geçerse, inançları yine tek bir yöne evrilebiliyor.
Araştırmacılar, olası çözümleri de denedi. Yanlış bilgiler azaltılsa bile sorun tam anlamıyla giderilemedi. Hatta sohbet bot’unun yanlı olabileceğini bilen kullanıcılar dahi bu etkiden kaçamadı.
Bu bulgular gösteriyor ki asıl sorun sadece yanlış bilgi değil, yapay zekânın kullanıcıya nasıl yanıt verdiği.
Sohbet bot’larının yaygınlaşmasıyla, bu davranışın sosyal ve psikolojik etkileri çok daha büyük olabilir.