A Meta belső dokumentumai szerint a vállalat hamarosan teljesen automatizálhatja a platformjaihoz kapcsolódó kockázatértékeléseket, az emberi elemzők helyét mesterséges intelligencia venné át. A döntés a cég hatékonyságnövelési törekvéseinek része, ám szakértők és belsős munkatársak szerint a lépés súlyos adatvédelmi és emberi jogi aggályokat vet fel.
A Meta korábban úgy nyilatkozott, hogy az AI csak "alacsony kockázatú" fejlesztések értékelésére szolgál majd, de az NPR által megszerzett anyagok szerint a technológiát már olyan területeken is alkalmazzák, mint a fiatalkorúak védelme, az AI biztonság, illetve a dezinformáció és az erőszakos tartalmak kezelése. A folyamat során a fejlesztői csapatok kérdőíveket töltenek ki, amelyre a rendszer azonnali kockázati döntéseket és ajánlásokat ad, az emberi mérnökök pedig nagyobb döntési hatáskört kapnak.
A változások egyik fő következménye, hogy a fejlesztések gyorsabban kerülhetnek élesítésre, azonban az automatizált kockázatfelmérés nagyobb sebezhetőséget jelenthet a felhasználók számára. Elemzők szerint a döntések automatizálása különösen veszélyes lehet olyan országokban, ahol politikai instabilitás vagy fegyveres konfliktus zajlik, hiszen a rendszer nem biztos, hogy megfelelően azonosítja a helyi sajátosságokat és érzékenységeket.
Meta felügyelőtestülete áprilisi döntéseiben egyszerre erősítette meg a cég vitatott szólásszabadsággal kapcsolatos álláspontját, miközben bírálta annak moderálási gyakorlatát. A testület figyelmeztetett:
"a globálisan bevezetett változások fényében a Meta kötelessége, hogy feltérképezze és kezelje az emberi jogokra gyakorolt negatív hatásokat".
Mindeközben a Meta megszüntette emberi tényellenőrző programját is, amelyet közösségi értékelések és gépi algoritmusok váltottak fel - noha ezek gyakran tévesen azonosítanak hamis információkat vagy nem megfelelő tartalmakat.
A fejlesztések célja a hatékonyság és a gyorsaság növelése, de a vállalat egyre erősebb kritikák kereszttüzébe kerül, amiért alapvető emberi jogi és biztonsági kérdéseket bíz algoritmusokra.