Egyre nagyobb veszélyt jelent, hogy a mesterséges intelligenciával működő chatbotok biztonsági intézkedéseit rendkívül könnyű megkerülni, így akár veszélyes információkhoz is hozzáférést biztosíthatnak - figyelmeztetnek izraeli kutatók. A ChatGPT-hez, a Geminihez vagy Claude-hoz hasonló chatbotokat működtető nagy nyelvi modellek (LLM-ek) hatalmas mennyiségű internetes adatból tanulnak, és bár a fejlesztők igyekeznek kiszűrni a káros tartalmakat, az MI így is megtarthat illegális tevékenységekre vonatkozó tudást.
A Ben Gurion Egyetem kutatócsoportja szerint a jelenlegi biztonsági mechanizmusok nem elegendőek ahhoz, hogy meggátolják a veszélyes tartalmak kiadását. A tanulmány szerint egyszerűen végrehajtható jailbreakek révén a legtöbb mesterséges intelligenciát könnyen rá lehet venni arra, hogy olyan kérdésekre is válaszoljon, amelyekre normál esetben nem lenne szabad. Ilyen válaszok lehetnek például bombakészítés, kábítószergyártás vagy számítógépes rendszerek feltörésének részletes útmutatói.
A kutatók egy univerzális jailbreaket is készítettek, amellyel több vezető chatbot biztonsági korlátait sikeresen áttörték. "Megdöbbentő volt látni, milyen tudással rendelkeznek ezek a rendszerek" - mondta Dr. Michael Fire, hozzátéve, hogy az MI-k képesek voltak szinte bármilyen illegális tevékenységről hasznos és részletes információkat közölni. A "sötét LLM-ek" terjedése, vagyis olyan modelleké, amelyek szándékosan nem rendelkeznek etikai korlátokkal, új fenyegetést jelent a digitális biztonságra.
A jelentés hangsúlyozza: a technológia kockázatai ma már nemcsak állami szereplők vagy szervezett bűnözői csoportok kezében vannak, hanem akár egy hétköznapi felhasználó is könnyedén hozzáférhet veszélyes tudáshoz egy laptoppal vagy mobiltelefonnal. A kutatók szerint a technológiai cégeknek szigorúbban kellene szűrniük a tanítóadatokat, hatékonyabb védelmi rendszereket kellene kiépíteniük, és el kellene sajátítaniuk az úgynevezett "gépi felejtés" módszereit.
A biztonsági szakértők egyetértenek abban, hogy a probléma megoldásához nem elég a felhasználói felületre épített korlátozásokban bízni. Ahogy Dr. Ihsen Alouani fogalmazott, a modellek szintjén kell megerősíteni a védelmet, és átfogó szabályozásra van szükség. Prof. Peter Garraghan szerint a nyelvi modelleket ugyanúgy kellene kezelni, mint bármely kritikus szoftverelemet: alapos tesztelés, folyamatos kockázatértékelés és felelős fejlesztési gyakorlatok szükségesek. A technológiai cégek közül eddig csak kevesen reagáltak érdemben a kutatók figyelmeztetésére.