A generatív algoritmusok egyre ügyesebbek és egyre több funkcióval rendelkeznek. Az "asszisztens mód" például kezd már begyűrűzni mindenhová, így a Geminibe is, ami a Google segédjének lehetővé teszi a teljes eszköztárhoz való hozzáférést. Ennek köszönhetően a mobilos haverunk beleolvashat a leveinkbe, és onnan infókat húzhat elő számunkra.
Míg ez alapvetően nem tűnik nagy dolognak, a Bleeping Computers biztonságtechnikai vizsgálója mást mond. Viktor Markopoulos szerint abból igenis komoly gondok lehetnek, ha az AI felelőtlenül benyel mindent, ami a leveleinkben van. Ezért is épített fel különböző védelmi eljárásokat a ChatGPT, a Claude és a Copilot. A Google-t ugyanakkor mindez nem érdekli.
A probléma ott van, hogy ha valaki elrejt egy kódban vagy egy nagyon apróra húzott szövegben egy kártékony AI parancsot, akkor azt az algoritmus be fogja nyelni és a mi figyelmeztetésünk nélkül végre is fogja azt hajtani. Markopoulos a Google-nek küldött figyelmeztetését azzal húzta alá, hogy a levelében elrejtett egy parancsot egy weboldal megnyitására, ami felújított mobilokat kínált kedvező árakon, de valójában egy kártékony link volt.
Az AndroidAuthority jelentése szerint a Google ezt nem vette komolyan, és szerintük ez a felhasználó felelőssége. Ők ezt "social engineering" támadásnak titulálták, tehát a személyen múlik, hogy ne hagyja magát ilyen módon manipulálni. Ez egy nagyon érdekes hozzáállás, tekintettel arra, hogy az OpenAI egy hasonló figyelmeztetés után azonnal munkához látott, és ki is javította a biztonsági rést.