Idén nyáron az orosz hackerek új trükkhöz folyamodtak: olyan adathalász e-maileket küldtek ukrán célpontjaiknak, amelyek mellékletében mesterséges intelligencia-alapú program lapult. Ha a felhasználó telepítette, a kártevő automatikusan érzékeny fájlokat kutatott fel, és továbbította Moszkvának. Ez volt az első ismert eset, amikor orosz hírszerzés nagy nyelvi modelleket (LLM-eket) használt rosszindulatú kód létrehozására.
Nem csak az oroszok vetették be a technológiát: az elmúlt hónapokban bűnözők, állami hackerek, kiberbiztonsági cégek és kutatók egyaránt elkezdték integrálni az AI-eszközöket munkájukba. Bár a nagy nyelvi modellek még nem forradalmasították a hackelést, a szakértők szerint érezhetően gyorsabbá és hatékonyabbá tették a profikat.
A Google Gemini modelljét például szoftverhibák felkutatására állították rá, és eddig legalább húsz jelentős sérülékenységet találtak. A CrowdStrike és más cégek is megerősítették: Kína, Oroszország, Irán és bűnszervezetek mind előszeretettel fordulnak AI-megoldásokhoz.
A kiberbiztonsági szakértők egyelőre úgy látják, a védelem nagyobb előnyöket kovácsolhat az új technológiából, de a helyzet gyorsan változhat. A szakma különösen az úgynevezett "agentic AI" elterjedésétől tart, amely önállóan képes e-maileket írni, kódot futtatni és komplex támadásokat végrehajtani.
Az iparági vita jelenleg arról szól, vajon az AI hosszú távon inkább a támadóknak vagy a védőknek kedvez majd. Egy dolog biztos: a macska-egér játék a kiberháborúban új szintre lépett.