Hesaplamalı Zihin Kuramı Modeli Oluşturma Çalışmaları
İnsanlar her gün çevresinden bilgi edinmeyi, başkalarının davranışını edindiği bilgilerle etkilemeyi, duygu ve düşüncelerini başkalarıyla paylaşarak duygusal yakınlık sürdürmeyi içeren çeşitli sosyal hedeflere ulaşmak amacıyla sosyal etkileşimlere girerler. Bir bireyin sosyal etkileşimdeki başarısının ayrılmaz bir parçası, karşısındakinin davranışsal tepkilerini tahmin etmek için o kişiye yönelik duygu, düşünce ve inançları hakkında mantık yürütmesidir ki bu yetenek literatürde zihin kuramı (Theory of Mind = ToM) olarak geçer (Premack ve Woodruff,1978; Baron-Cohen ve ark.,1985). Zihin Kuramı zihinsel durumu sadece temsil veya tahmin etmekle kalmayıp bu zihinsel duruma karşı bir davranış geliştirmeyi de içerir. Yapay zeka, doğası gereği insanların çeşitli davranışlarını kopyalamaya çalıştığı ve imitation game’den (bkz. Turing Testi) geçmeye çalıştığı için ToM hakkında çalışmaların olması da sebepsiz değildir. Potansiyel etkiler açısından ToM YZ (Yapay Zeka) Alzheimer gibi nörolojik hastalıklar ve depresyon, otizm spektrum bozukluğu ve şizofreni gibi psikiyatrik hastalıklarda etkili Bilişsel Davranışçı Terapi veya mindfullness gibi terapi yöntemlerinde önemli roller oynayabilir. Uzun vadede, moral (etik) YZ makinelerin kritik durumlarda etik karar vermesine yardımcı olabilir.
Konuya hakim olabilmek için Brand’in(1985,1986) bakış açısına değinmekte fayda görüyorum. Bu bakış açısına göre yapay zeka sıcak biliş (hot cognition) ve soğuk biliş (cold cognition) olarak ikiye ayrılır. Sıcak biliş ToM gibi duygusal ve sosyal bilişi kapsayan bir terime karşılık gelirken, soğuk biliş ise duygusal katılımdan bağımsız bir bilgi işleme sürecini ifade eder. Sosyal biliş, sosyal fenomenleri altta yatan bilişsel süreçleri araştırarak anlamaya çalışır ToM da sosyal bilişin önemli bir bileşenidir; ancak şimdiye kadar YZ çalışmaları sıklıkla veriden bilginin nasıl elde edildiği ile ilgili soğuk biliş soğuk biliş çalışmalarına odaklanmıştır. Örneğin Kasparov ‘u yenmeyi başaran IBM’in Deep Blue bilgisayarı veya Tıpta ise diyabet tanısını retinal görüntüler kullanarak doktorlardan daha yüksek keskinliğe (güvenilirlikte) sahip bilgisayar sistemleri gibi (De Fauw ve ark.,2018).
Önemli noktalardan birisi, makine ToM yaklaşımı bireyin sadece gelecekteki davranışını yordamakla kalmayıp gözlenen davranışa yönelik davranışın yapılış amacı ve davranışın görünürdeki durumuna bir açıklama getirmeye çalışır. ToM için üretilen modellerin çoğu gerçekçi insan zihin fonksiyonlarını yansıtmada başarısız olmuşlardır. Bu modellerin sınırlılıkları, süreklilik ve deneyimden öğrenmeye yönelik dinamik yapıya dair yetersizliklerdir; yani çoğul kurallara göre kendilerini güncellemedeki güçlüktür. ToM modellerinde başka ajanların zihinsel durumlarının önceden tahmin ettiği varsayılır. Dahası, bu modellerin çoğu, yalnızca önermeler mantığına dayalı akıl yürütme süreçlerini kullanır; bu kullanım biçimi, insanların dili kullanma şeklini yansıtır; ancak beynin gerçek çalışma şeklini veya bilginin beyinde nasıl temsil edilip organize edildiğini yansıtmaz.
İnsanlar duruma özgü olarak başkalarının zihinsel durumları ve davranışları ve kendilerinin o durumda nasıl davranacaklarını tahmin edebilir Bu yetiye içsel simülasyon denir. Ayrıca, içsel simülasyonların episodik, otobiyografik hafıza, karşı-olgusal düşünme (counterfactual thinking) ve geleceğe yönelik episodik düşünme gibi zihinsel fonksiyonlarda rolü vardır. İçsel simülasyonların empatiyle sıkı bir ilişkisi vardır. Ayna nöronların hem davranışı sergileyen hem de bu davranışı gözlemleyen bireylerde aktifleşmesi içsel simülasyonlara kanıt oluşturabilir (Gallese ve Goldman,1998 )
Başarılı bir içsel simülasyon modeli oluşturulacaksa yeni ajan sınıfı için sıfırdan bloklar inşa edilmemeli, birçok farklı bloğun bir araya gelmesiyle yeni fonksiyonel bloklar oluşturulmalıdır. (Andreas, Rohrbach, Darrell ve Klein,2016). Bu tür bloklar, zihinsel durumlar arasındaki mantıksal ilişkileri temsil eden derin sinir ağları olabilir (Liu ve ark,2016 ). Bu blokları bağlamanın en iyi yolu gözlemlenmiş sahnedeki en olası simülasyonla ajanların deneyimlerini ilişkilendirmektir; yani ajanların davranışlarını bağlamdan bağımsız olarak ele almamaktır. Örneğin, üst katlara çıkabilmek için hem merdivenden çıkma hem de asansöre binme seçeneği olan bir koridorda olduğu bir simülasyonda yaşlı, zayıf bir kişinin asansöre bineceği, sağlıklı bir genç yetişkinin merdivenlerden çıkabileceği sonucuna varabiliriz. Ayrıca bu örnek , pekiştirmeli öğrenme (RL) ilkelerine göre ele değerlendirilirse , gözlemlenen davranışa tam olarak uyan tahminlere yol açan yapıları ödüllendirerek ve yanlış olanlara yol açanları cezalandırarak yapılabilir.
Derin Öğrenme (DL) yaklaşımı spontane (kendiliğinden) ToM modeli oluşturmak için mantıklı bir tercih olabilir. Rabinowitz ve arkadaşları 2018 yılındaki çalışmasında Sally-Anne yanlış inanç testinden geçebilmesi için ToM modelini meta-öğrenme problemi kalıbına yerleştirdi. Bu çalışmanın soncuna göre nöral ağ modeli yanlış inanç testini geçmeyi başarmıştır. Ancak, bu derin öğrenme modeli için büyük miktarda eğitim verisi gerekmişti. Rabinowitz ve arkadaşlarının çalışmasında 6 aylık bir bebeğin çıkarım seviyene benzer bir model üretme hedeflerini gerçekleştirebilmek için 32 milyon örnek (sample) kullandı. Eğer bebekler bu DL modeline benzer bir öğrenme metodu kullansaydı bu 6 ay için her gün 175 bin adet etiketli görsel gerekecekti.
Ajana özgü esnek ToM simülasyonu oluşturmada gerekli olacak veri miktarının çok büyük olması olasıdır. Ancak, ToM kavramının dar anlamda kanıtı sayılabilecek otonom araçlar zihinsel becerilerinin bir kısmını kullanır ve az sayıdaki durumlara yönelik olası sınırlı çıkarımlar gerçekleştirir (Ör: sağa mı döneyim ya da durayım mı?). Bunun gibi durumlarda gerekli olabilecek veri miktarı daha önce bahsedilen duruma göre daha küçük olduğunu söylemek yanlış olmaz. Bu mantıkla, insandan ilham alınarak oluşturulacak makine ToM ML (Machine Learning= Makine Öğrenmesi) modelleri basit, dar bir göreve odaklanma yerine birden çok ve birbiriyle ilişkili, esnek görevlerle uğraşabilecek bir yapıda ortaya çıkmalıdır. Benzer argümanlar ELIZA gibi ünlü Turing Test uygulaması olan chat-botları için de geçerlidir. Ayrıca ToM’u genel zekanın bir parçası olarak değerlendirmek yanlış olmaz (Benjamin E., 2016).
Başka bir örnekte, daha önce kaldırımdan okula yürüyen çocuklar yolun karşısında bir dondurmacı görebilir ve dondurmalarını almak için yolun karşısına geçmeye karar verebilirler. Yalnızca geçmişte gözlemlenen hareket üzerinde işleyen hiçbir tahmin sistemi, bağlamı ve dahil olan diğer ajanların doğasını hesaba katmadan, bu tür karmaşık ortamlarda yeterince doğru ve güvenilir olamaz. Öte yandan insanlar, herhangi hareket gerçekleşmeden bile başkalarının gelecekteki davranışını tahmin edebilir, sadece ilgili kişinin ‘durumunu‘ ve etrafındaki bağlamı hızlı bir şekilde değerlendirebilir. Koridorda duran yaşlı bir kişinin üst katlara çıkabilmesi için merdiven yerine asansörü tercih etmesi örneğindeki gibi.
Tersine pekiştirme öğrenmesi (Inverse Reinforcement Learning = IRL) insan tercihlerinden ya da ödül fonksiyonlarından öğrenen bir popüler RL frameworküdür (çerçeve). Çoğu IRL yaklaşımı insan rasyonelliğinin basitleştirilmiş formu olarak varsayılır. Armstrong ve Mindermann çalışmasında (2018) insan rasyonelliği ile ilgili varsayım bulunmazsa, o zaman insanların tercihleri sistem ne kadar veriyi sistemden öğrense de sadece davranışlarından çıkarsamayacağını göstermişlerdir. Jara-Ettinger(2019) çalışmasında ToM modeli oluşturmak için bir RL frameworkünün uygulanabileceğini göstermiştir.
Hesaplamalı ToM yaklaşımına yöneltilen dikkate değer eleştirilerden birisi bazı durumlarda diğer ajanların doğrudan gözlemlerinden öğrenmek, o ajanların zihinsel durumları ile ilgili çıkarım yapmaya gerek duyulmadan gelecekteki davranışlarını tahmin etmek için yeterli olabileceği yönündedir; ancak, hesaplamalı ToM ile Baker ve arkadaşlarının 2017 yılındaki çalışmasında BToM (Bayesian theory of mind) ipucu temelli modelinin doğrudan zihinsel durumlardaki saf hareket şemasının tanındığı modellere göre tahmin keskinliği konusunda daha yüksek başarı elde etmiştir.
Kaynaklar ve İleri Okumalar
- Mnih, V., Kavukcuoglu, K., Silver, D., Rusu, A. A., Veness, J., Bellemare, M. G., … Petersen, S. (2015). Human-level control through deep reinforcement learning. Nature, 518, 529–533. doi: 10.1038/nature14236Erb, Benjamin. (2016). Artificial Intelligence & Theory of Mind. 10.13140/RG.2.2.27105.71526.
- Baker, C., Jara-Ettinger, J., Saxe, R., & Tenenbaum, J. B. (2017). Rational quantitative attribution of beliefs, desires and percepts in human mentalizing. Nature Human Behaviour, 1, 0064. doi: 10.1038/s41562-017-0064 De Fauw et al.,2018
- Gallese, V., & Goldman, A. (1998). Mirror neurons and the simulation theory of mind-reading. Trends in Cognitive Sciences, 2(12), 493–501. doi: 10.1016/s1364-6613(98)01262-5Andreas, Rohrbach, Darrell, & Klein,2016
- Liu, Q., Jiang, H., Evdokimov, A., Ling, Z., Zhu, X., Wei, S., & Hu, Y. (2016). Probabilistic reasoning via deep learning: Neural association models. arXiv preprint arXiv, 1603.07704Rabinowitz ve ark. 2018’
- Premack, D., & Woodruff, G. (1978). Does the chimpanzee have a theory of mind? Behavioral and Brain Sciences, 1(4), 515–526. https://doi.org/10.1017/S0140525X00076512
- Baron-Cohen, S. (1995). Mindblindness: An essay on autism and theory of mind. The MIT Press.
- Brand, A. G. (1985–1986), “Hot cognition: Emotions and writing behavior”, JAC, 6: 5–15, JSTOR 20865583
- Cuzzolin, F., Morelli, A., Cîrstea, B., & Sahakian, B. J. (2020). Knowing me, knowing you: theory of mind in AI. Psychological medicine, 50(7), 1057–1061. https://doi.org/10.1017/S0033291720000835
Yorum gönder