Hirdetés

Szexuális erőszakkal vádolt meg egy szenátort a Google AI-modellje, a vállalat kénytelen volt eltávolítani



|

A fejlesztőknek szánt Gemma légből kapott állításokat közölt egy politikusról.

Hirdetés

A Google kénytelen volt eltávolítani a Gemma nevű mesterséges intelligencia-modelljét az AI Studio platformról, miután egy amerikai szenátor azzal a panasszal fordult a céghez, hogy a modell hamis és súlyos bűnügyi állításokat tett róla. A vállalat közölte, hogy a Gemmát eredetileg fejlesztőknek szánták, nem pedig a nagyközönségnek, és semmiképp sem tényalapú kérdések megválaszolására.

A döntés előzménye, hogy Marsha Blackburn republikánus szenátor levélben kereste meg Sundar Pichait, a Google vezérigazgatóját, miután a Gemma állítólag azt a valótlan választ adta egy kérdésre, hogy Blackburnt szexuális erőszakkal vádolták meg az 1980-as évek végén. A válaszban a modell egy kitalált történetet részletezett egy állítólagos viszonyról és kényszerítésről, valamint fiktív hírcikkeket is felsorolt bizonyítékként - mindezek nem léteznek. Blackburn szerint ez nem egyszerű "hallucináció", hanem rágalmazás, amit egy Google-tulajdonú AI hozott létre és terjesztett.

A szenátor a szenátusi kereskedelmi bizottság legutóbbi meghallgatásán is szóvá tette az esetet, ahol korábban egy másik AI-jal kapcsolatos rágalmazási ügy is terítékre került. Levelében egyértelműen fogalmazott: "Kapcsolják le, amíg nem tudják irányítani."

Hirdetés

A Google hivatalos közleményében elismerte, hogy az AI Studio platformon fejlesztőkön kívüli felhasználók is hozzáférhettek a Gemmához, és ténykérdéseket tettek fel neki. A vállalat szerint ez félreértés volt, mivel a Gemma nem fogyasztói használatra készült, hanem olyan fejlesztési célokra, mint az orvosi, kódolási vagy tartalomelemző modellek tesztelése.

"A félreértések elkerülése érdekében a Gemma elérhetősége megszűnt az AI Studióban, de az API-n keresztül továbbra is használható fejlesztők számára"

- írta a cég.

Az ügy ismét rávilágít a generatív mesterséges intelligenciák egyik legnagyobb problémájára: az úgynevezett "hallucinációkra", amikor a modellek hihető, de hamis információkat kreaálnak. Bár a technológia fejlődik, a tényalapú pontosság még mindig nem megoldott kérdés. A Google mindenesetre azt ígéri, hogy folytatja a munkát a hibák csökkentése és a modellek megbízhatóságának javítása érdekében.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.