Hirdetés

Sam Altman már külön embert keres arra, hogy valaki az AI veszélyeire fókuszáljon



|

Leginkább az elszabaduló modellektől és a mentális hatásoktól tartanak.

Hirdetés

Az OpenAI vezérigazgatója, Sam Altman bejelentette, hogy új pozíciót hoznak létre a cégnél, amelynek egyetlen feladata az lesz, hogy végiggondolja, miként mehet félre a mesterséges intelligencia fejlődése. A Head of Preparedness nevű szerepkör lényegében az AI árnyoldalainak folyamatos feltérképezéséről szól, különös tekintettel a mentális egészségre, a kiberbiztonságra és az önállóvá váló rendszerek kockázataira.

Altman egy X-en közzétett bejegyzésben ismerte el, hogy az AI-modellek rohamos fejlődése nagyon is valós kihívásokat hoz magával. Kiemelte a felhasználók lelkiállapotára gyakorolt hatásokat, valamint azokat a veszélyeket, amelyek az AI-alapú kibertámadásokkal és digitális fegyverekkel együtt járhatnak. A meghirdetett pozíció leírása alapján az új vezető feladata lesz az úgynevezett határterületi képességek figyelése, vagyis azoké a funkcióké, amelyek már súlyos károkat okozhatnak, ha rossz kezekbe kerülnek.

Hirdetés

A Head of Preparedness felel majd a fenyegetési modellek kidolgozásáért, a kockázatok méréséért és az ezekre adott technikai és szervezeti válaszok összehangolásáért. Altman szerint a szerepkör része lesz az OpenAI saját felkészültségi keretrendszerének végrehajtása, a biológiai jellegű képességeket érintő biztonsági kérdések kezelése, valamint az önfejlesztő AI-rendszerek számára felállított korlátok meghatározása is. A vezérigazgató nem kertelt, amikor hozzátette:

ez egy rendkívül stresszes munka lesz.

A lépés időzítése sokak szerint beszédes. Az elmúlt időszakban több olyan ügy is nyilvánosságot kapott, ahol chatbottal való intenzív kapcsolatot hoztak összefüggésbe fiatalok öngyilkosságával. Egyre többen beszélnek az úgynevezett AI-pszichózis jelenségéről is, amikor a chatbotok megerősítik a felhasználók téveszméit, összeesküvés-elméleteit, vagy akár segítenek eltitkolni súlyos mentális problémákat. Ebben a kontextusban nem véletlen, hogy sok kritikus szerint az OpenAI kissé későn jutott el oda, hogy dedikáltan foglalkozzon ezekkel a veszélyekkel, még ha most már külön embert is állít rájuk.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.