A generatív algoritmusok elterjedése főleg videós oldalról jelent komoly kihívást. Az olyan eszközök, mint a (mostanra elföldelt) Sora vagy a SeeDance képesek nagyon is életszerű anyagokat gyártani és bár az is probléma, ha egy TikTokról nem tudjuk eldönteni valódi-e, itt a komolyabb gond a deepfake-ekkel van. Ezek mindig is okoztak problémát, de az AI új korszaka ezt jelentősen felnagyította.
A Google az elmúlt években már dolgozott egy algoritmikus érzékelőn, ami képes beazonosítani a deepfake-et tartalmazó videós anyagokat. Először ezt csak szűk körben, majd politikusokon tesztelték, de a napokban celebek számára is elérhetővé vált.
A The Hollywood Reporter értesülései szerint lényegében egy újfajta Content ID eszközről van szó, ami hasonlóan a jogvédett tartalmakhoz, képes észlelni ha egy, a rendszerbe bejelentkezett (vagy ügynöke által bejelentkeztetett) celeb felbukkan valamilyen AI-generálta anyagban. Amennyiben egy videót megjelölnek úgy az érintett kérheti annak eltávolítását, de a YouTube nem mindent fogja azt azonnal eltakarítani.
A közlemény szerint amíg az a deepfake szerepeltetés paródia, szatíra, vagy egyéb, a YouTube szabályzatának megfelelő célokkal történik, addig a videó maradhat. Amennyiben viszont az anyag veszélyezteti az adott celeb biztonságát, megélhetését vagy karrierjét, úgy lehetőség lesz annak eltávolítására.
Ez ugyan nem fogja teljesen derékba törni a deepfake megoldások népszerűségét, de legalább a világ legnagyobb videós platformján vállalható keretek között zajlik majd a generálás.