Az AI hallucinációs hulláma elég bosszantó, de közben elég ironikus is, tekintve, hogy pont az okoskodó mesterséges intelligenciák hazudnak a legtöbbet.
A GPT-o3-nak és o4-mininek akkor az önbizalma, hogy már az alap tényellenőrzésen is elbuknak. Maga az OpenAI ismerte el, hogy 51-79% közötti arányban generálnak kamu válaszokat az egyszerű kérdésekre a modellek.
Ez az egész azért üt különösen nagyot, mert elvileg ezek a modellek már nem csak "szöveget alkotnak", hanem elméletileg gondolkodnak is. Csakhogy úgy tűnik, hogy ez az esetek nagy részében nem működik. Az OpenAI persze próbálja védeni a helyzetet, szerintük nem a reasoning modellek a hibásak, csak ezek a példányok most épp többet tévedtek.
Ez természetesen újabb kérdéseket vet fel a mesterséges intelligencia gyakorlati hasznával kapcsolatban, hiszen ha nem bízhatunk abban, amit mond, akkor valójában nem spórol nekünk időt a LLM, hanem csak ad még egy forrást, amit folyamatosan tényellenőríznünk kell.