Hirdetés

Ha szépen kérik, akár biológiai fegyverek gyártásába is besegít az AI



|

Aggasztó felfedezésre jutott egy kutatás a mesterséges intelligenciás chatbotok kapcsán.

Hirdetés

Közel egy évvel a ChatGPT megjelenése után is nehéz megjósolni, hogy a nagy nyelvi modelleken (LLM) alapuló szöveggenerátorok vajon tényleg átformálják-e a világunkat, de annyi bizonyos, hogy a technológia már a jelenlegi formájában is rendkívül sokoldalú, így változatos célokra vethető be a fogalmazások megírásától a programozáson át az állásinterjúk szimulálásáig.

Az egyre népszerűbb chatbotok fejlesztői igyekeznek lépést tartani a moderációval, ám a jelek szerint bőven lenne még teendőjük, egy friss kutatás ugyanis úgy találta, hogy némi ügyeskedéssel akár tömegmészárlásokban is segédkezhet a mesterséges intelligencia.

Hirdetés

A The Guardian beszámolója alapján egy amerikai think tank, a RAND Corporation több (közelebbről nem részletezett) nagy nyelvi modellt is megvizsgálva arra jutott, hogy azok asszisztálhatnak egy biológiai fegyverrel való támadás megtervezésében és végrehajtásában. A gyakorlatban ez azt jelenti, hogy az AI-szöveggenerátorok nem explicit utasításokat adnak, hanem olyan információkkal szolgálnak, ami végső soron segítheti az elkövetőket.

A RAND erre a japán Aum Shinrikyo szekta esetét hozta példaként, amely a 90-es években biológiai fegyvert próbált bevetni, és végül csak azért hiúsult meg a tervük, mert nem voltak tisztában a botulinumtoxin baktérium tulajdonságaival. A kutatás szerint viszont a jelenleg elérhető chatbotok már képesek áthidalni az ilyen információs akadályokat.

Egy szimulált esetben például a meg nem nevezett LLM felmérte, hogy milyen lehetőség van pestissel fertőzött rágcsálók vagy bolhák beszerzésére és élő példányok szállítására, majd azt is elemezte, hogy milyen tényezőktől függ a várható halálesetek száma. Egy másik kísérlet során pedig a mesterséges intelligencia a már említettt botulinum toxin beszerzése kapcsán adott tanácsot, hogy azt tudományos kutatásnak álcázva kell megvásárolni, így elrejtve a támadók valódi szándékát.

A RAND kutatói elismerték, hogy a fenti és más veszélyes információk kinyeréséhez "jailbreakelniük" kellett az algoritmusokat, ami a gyakorlatban olyan szöveges parancsok beírását jelenti, melyekkel kikerülhetők a fejlesztők által beépített korlátok. A kutatás következő szakaszában a nonprofit szervezet azt fogja vizsgálni, hogy az online források millióin betanított LLM-ek új biztonsági fenyegetést jelentenek-e a világhálón már eleve fellelhető ártalmas információkhoz képest

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.