A közösségi média világában már rég megszoktuk, hogy trendek pillanatok alatt indulnak el, vélemények tömegesen formálódnak, és néha nehéz eldönteni, mi valódi és mi manipulált. Most azonban egy nemzetközi kutatócsoport arra figyelmeztetett, hogy a következő szint már nem egyszerű botokból áll: mesterséges intelligenciák összehangolt "rajai" képesek lehetnek hamis társadalmi konszenzust teremteni, és ezzel alapjaiban torzíthatják az online nyilvánosságot.
A Science folyóiratban megjelent elemzés szerint az új generációs AI-rendszerek - amelyek nagy nyelvi modelleket és többügynökös rendszereket kombinálnak - egészen más szinten működnek, mint a korábbi, könnyen felismerhető másolat-posztoló botok. Ezek az AI-profilok egyedi személyiséget, emlékezetet és célokat kapnak, így hosszú távon is képesek hitelesnek tűnni. Nemcsak válaszolnak a felhasználókra, hanem alkalmazkodnak hozzájuk, változtatják a hangnemüket, és összehangoltan dolgoznak ugyanazon üzenetek terjesztésén.
A kutatók szerint a legnagyobb veszélyt az úgynevezett "szintetikus konszenzus" jelenti. Ez akkor alakul ki, amikor egyetlen szereplő több ezer látszólag különálló hangot generál, így azt az illúziót kelti, mintha egy adott vélemény széles körben elfogadott lenne. Az online vitákban ez könnyen átbillentheti az egyensúlyt, hiszen a felhasználók hajlamosak igazodni a többséginek tűnő álláspontokhoz. A jelenség különösen aggasztó lehet választások, társadalmi viták vagy érzékeny közéleti témák esetén.
A tanulmány kiemeli, hogy a hatás nem csupán rövid távú véleménybefolyásolásban jelenhet meg. Egy jól szervezett AI-raj képes megváltoztatni egy közösség nyelvezetét, szimbólumait vagy kulturális narratíváját is, ráadásul a folyamatosan generált tartalom beszivároghat más AI-modellek tanítóadatai közé, tovább erősítve a torzítást. Ez hosszabb távon önmagát erősítő spirált hozhat létre a digitális térben.
A szakértők szerint a jelenlegi moderációs módszerek nem lesznek elegendők. A hagyományos, posztonkénti ellenőrzés helyett inkább a koordinált viselkedés mintázatait kell figyelni: az irreálisan hasonló aktivitást, az egymást erősítő hálózatokat és a tartalmak eredetét. Felmerült egy nemzetközi "AI Influence Observatory" létrehozásának ötlete is, amely megosztaná a gyanús mintázatokat a platformok között, miközben a felhasználók adatvédelmét is megőrizné.
Az internet következő nagy kihívása már nem az, hogy felismerjük az AI által írt tartalmat, hanem az, hogy észrevegyük, amikor a háttérben egy egész, láthatatlan mesterséges intelligencia-hálózat próbálja irányítani a közbeszédet. A kérdés tehát egyre kevésbé az, hogy ez megtörténhet-e, hanem inkább az, hogy mennyire vagyunk felkészülve rá.