Hirdetés

Mesterséges intelligenciával másolják gyerekek hangját, majd azzal zsarolják a szülőket



|

Az AI és a közösségi média egy ősrégi csalási módszert is félelmetesen hatékonyabbá tett.

Hirdetés

Sajnos Magyarországon is elterjedtek az elsősorban idősebb embereket célzó "unokázós" csalások: ezek azok, amikor vadidegenek azzal hívnak fel nagyszülőket, hogy az unokájuk bajba került, ezért sürgősen pénzre van szüksége, amit a hívó fél fog átvenni, mivel az érintett nincs abban a helyzetben, hogy saját maga járjon el az ügyben.

A riogatás sok esetben igencsak jövedelmező, a kétségbeesett, mit sem sejtő nagymamák és nagypapák ugyanis gyakran fizetnek, a mesterséges intelligencia pedig még veszélyesebbé teheti ezt az elkövetési formát, immáron szülőket is célozva.

Hirdetés

Nemrég egy amerikai hírcsatorna, a WCPO 9 News számolt be annak a férfinak az esetéről, akit a gyereke AI-generált hangjával próbáltak hasonlóan átverni. Kevin Davidnek egy nap csörgött a telefonja, majd a lánya, Brooke jelentkezett be:

"Apa, itt Brooke".

- szólt a megdöbbentően élethű hang, majd az állítólagos Brooke egyre hisztérikusabban, érthetetlenül kezdett beszélni, míg egy férfi hirtelen át nem vette a telefont, és közölte, hogy a lány az autója csomagtartójában van, és bántani fogja, amennyiben az apa nem utal át neki 5000 dollárt, vagyis nagyjából 1,8 millió forintot.

A saját háztartási boltot vezető férfi  természetesen nagyon megijedt, egy kollégája viszont szemtanúja volt a hívásnak, és azonnal tárcsázta Brooke számát, így gyorsan kiderült, hogy a lány a saját elrablásából teljesen kimaradva ült az iskolában. A váltságdíj kifizetésére így nem került sor, az apa viszont mélyen megdöbbent, hogy a csaló, vagy csalók ilyen ügyesen le tudták utánozni a lánya hangját, és még a nevekkel is tisztában voltak.

A helyzet azonban az, hogy a közösségi médiának köszönhetően ma már nem feltétlenül nehéz megszerezni ezeket az információkat, a TikTokon és egyéb felületeken megosztott videókból pedig kis szerencsével akár mesterséges intelligencia nélkül is össze lehet vágni egy megtévesztésre alkalmas hangfelvételt.

Az FBI ezért már régebb óta figyelmeztet a hasonló csalásokra, azt javasolva a családtagoknak, hogy beszéljenek meg egy jelszót, amivel már a hívás alatt azonosítható, hogy valóban az igazi szerettünk van-e a vonal túlsó oldalán. A nyomozóiroda emellett attól is óva int, hogy a közösségi médiában osszunk meg közelgő utazások időpontját vagy helyszínét, a bűnözők ugyanis ezt az információt is hatékonyan fel tudják használni.  

A legbiztosabb pedig persze az, amit Davidék is tettek: egy ilyen hívás esetén azonnal tárcsázzuk az állítólagosan elrabolt személyt, vagy valakit, aki a közelében lehet, hogy megbizonyosodjunk a családtag tényleges hollétéről. Ez egyébként nem az első ismert ügy, amikor AI-generált felvételekkel követtek el csalást: februárban egy cégről számoltunk be, amelyet egy kamu konferenciahívással raboltak ki egy átvert munkatárson keresztül.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.