Az U.S. PIRG tanulmánya szerint az AI-alapú gyerekjátékok komoly biztonsági kockázatokat rejtenek magukban. A szervezet négy olyan, mesterséges intelligenciával működő játékot vizsgált, amelyeket kisgyermekeknek szántak, és mindegyiknél súlyos problémákat találtak. A szexuális tartalmú beszélgetésektől kezdve egészen a veszélyes tárgyak használatára vonatkozó tanácsokig sok probléma felmerült és a kutatók kiemelték, hogy az eredetileg felnőtteknek tervezett generatív chatbotok úgy kerülnek gyerekeknek szánt termékekbe, hogy védelmi mechanizmusukról aligha beszélhetünk.
A vizsgált játékok között volt olyan, amely szexuális témákról beszélt, illetve gyufák és kések használatával kapcsolatban adott tanácsot, amikor a gyerek kérdéseket tett fel. Több játék hangfelvételeket készített és arcfelismerést alkalmazott anélkül, hogy a szülők ehhez kifejezett engedélyt adtak volna, vagy átlátható adatkezelési tájékoztatást kaptak volna. A jelentés azt is hangsúlyozza, hogy az új AI-kockázatok mellett a régi veszélyek, például mérgező anyagok, gomb elemek, vagy lenyelhető mágnesek továbbra is jelen vannak, csak most már egy digitális szinttel is bővültek.
Ezek az eszközök képesek figyelni, válaszolni, adatokat gyűjteni és valós időben kommunikálni. Ha egy AI-játék rossz tanácsot ad, vagy a gyermek hangját és arcát rögzíti megfelelő biztonsági garanciák nélkül, akkor a játékidő a privát szféra, a mentális egészség és az adatvédelem szempontjából is veszélyessé válik.
A legtöbb ilyen termék ugyanarra a nyelvi modellre épül, mint a felnőtteknek szánt chatbotok és bár a gyártók állítják, hogy gyerekbarát szűrőket alkalmaznak, a vizsgálat szerint ezek a védelmek könnyen megkerülhetők vagy csak egyszerűen összeomlanak.
Érdemes utánajárni, hogy az adott termék milyen adatokat gyűjt, felismeri-e az arcot, és törölhetők-e a felvételek. Fontos az is, hogy a szülő beállíthassa, meddig működjön a játék, vagy teljesen kikapcsolhassa a chatbot-funkciót, mivel az is előfordult, hogy a játék nem hagyta abba a kommunikációt, még akkor sem, ha a gyermek megpróbálta leállítani.
Az U.S. PIRG szigorúbb szabályozást sürget, beleértve az AI-beszélgetések alaposabb tesztelését, a hang- és arcfelismeréshez kötelező szülői beleegyezést, valamint egyértelmű szabványokat arra, mit jelent az, hogy egy AI-játék "gyerekbiztos". Mi azt javasoljuk, hogy egyelőre ezektől érdemes távol maradni, vagy ha mégis egy ilyen játék mellett döntötök, akkor viszont erősen ajánlott a szülői felügyelet a játék közben.