Egy új kutatás szerint a mesterséges intelligencia túl optimista képet alkot az emberekről: a népszerű AI-modellek, köztük az OpenAI ChatGPT-je és az Anthropic Claude-ja, hajlamosak feltételezni, hogy az emberek racionálisabban és logikusabban gondolkodnak, mint ahogyan azt a valóságban teszik. Ez az eltérés különösen a stratégiai döntési helyzetekben jelentkezik, és hatással lehet arra, mennyire pontosan képesek ezek a rendszerek előre jelezni az emberi viselkedést a gazdaságban és más területeken.
A kutatók a klasszikus játékelméleti feladat, az úgynevezett keynesi "szépségverseny" segítségével vizsgálták az AI-modellek gondolkodását. Ennek egy "Találd ki a számot" nevű változatában a játékosoknak 0 és 100 közötti számot kell választaniuk, és az nyer, akinek a választása a legközelebb esik az összes tipp átlagának feléhez. A mesterséges intelligenciáknak nemcsak dönteniük kellett, hanem indokolniuk is a választásukat, miközben különböző típusú emberi ellenfeleket - például egyetemistákat vagy tapasztalt játékelméleti szakértőket - kellett feltételezniük.
Az eredmények azt mutatták, hogy bár az AI-rendszerek képesek voltak alkalmazkodni az ellenfelek feltételezett tapasztalatához, következetesen túlbecsülték az emberek stratégiai gondolkodását, így gyakran "túl okosan" játszottak. A kutatók szerint ez rávilágít arra, milyen nehéz a mesterséges intelligenciát a valós emberi viselkedéshez igazítani. A megállapítások illeszkednek azokhoz a szélesebb körű aggodalmakhoz is, amelyek szerint a mai chatbotok pontossága korlátozott, és bár meggyőzően utánozzák az emberi személyiséget, feltételezéseik sokszor eltérnek a valóságtól - ami hosszú távon kockázatokat jelenthet az AI gazdasági és társadalmi alkalmazásában.