Hirdetés

A Pentagon hivatalosan is kockázatnak minősítette az Anthorpicot



|

Az amerikai hadügy szerint a Claude AI veszélyt jelenthet, a cég bíróságra megy.

Hirdetés

Példátlan lépésre szánta el magát az amerikai hadügy: a Pentagon hivatalosan is ellátási lánc kockázatnak minősítette az Anthropic mesterségesintelligencia-céget, ami azonnali hatállyal lépett életbe, és súlyos következményekkel járhat a vállalat számára. A döntés értelmében a kormányzati és katonai beszállítók kénytelenek lehetnek felhagyni az Anthropic termékei, köztük a Claude AI chatbot használatával a védelmi projektekben. A Pentagon közlése szerint a cég vezetését hivatalosan is értesítették arról, hogy a vállalat és termékei mostantól ellátási lánc kockázatnak számítanak. Ennek ellenére Irán megtámadása során bevezették.

A konfliktus a múlt héten éleződött ki, amikor Donald Trump amerikai elnök és Pete Hegseth védelmi miniszter azzal vádolták a céget, hogy veszélyezteti a nemzetbiztonságot. A vita azért robbant ki, mert az Anthropic vezérigazgatója, Dario Amodei nem volt hajlandó feloldani bizonyos biztonsági korlátozásokat, amelyek szerinte megakadályozzák, hogy a technológiát tömeges megfigyelésre vagy teljesen autonóm fegyverrendszerek fejlesztésére használják. Amodei csütörtökön közölte, hogy a cég szerint a döntés jogilag megalapozatlan, ezért bíróságon fogják megtámadni. A Pentagon viszont azzal indokolta a lépést, hogy a hadseregnek képesnek kell lennie technológiákat minden törvényes célra használni, és nem engedheti meg, hogy egy beszállító korlátozza a katonai alkalmazásokat.

Hirdetés

A hatás már most érződik az iparágban. A Lockheed Martin jelezte, hogy követni fogja a kormány iránymutatását, és más nagy nyelvi modellek felé fordul a katonai projektekben. A vállalat szerint azonban ez nem jelent komoly fennakadást, mivel nem függ egyetlen mesterségesintelligencia-szolgáltatótól. Ugyanakkor minden együttműködés szűnik meg. A Microsoft, a Google és az Amazon jogi elemzése szerint az új szabály csak a közvetlen katonai szerződésekre vonatkozik, így a techóriások továbbra is dolgozhatnak az Anthropickal civil projektekben.

A döntés komoly kritikát váltott ki Washingtonban az AP beszámolója szerint. Kirsten Gillibrand demokrata szenátor úgy véli, veszélyes precedenst teremt, ha egy eredetileg külföldi ellenfelek ellen létrehozott jogi eszközt amerikai cégek ellen alkalmaznak. Hasonló véleményt fogalmazott meg több szakértő és volt katonai vezető is, köztük Michael Hayden volt CIA-igazgató, akik szerint a szabályt eredetileg az olyan vállalatok kiszűrésére találták ki, amelyek például Peking vagy Moszkva befolyása alatt állnak.

Az Anthropic ugyanakkor váratlan támogatást kapott a felhasználóktól. A cég közlése szerint az elmúlt napokban jelentősen megugrott a letöltések száma, naponta több mint egymillió új felhasználó regisztrált a Claude szolgáltatásra. A vállalat szerint ezzel az alkalmazás több mint húsz országban az App Store legnépszerűbb AI-appja lett, megelőzve az ChatGPT és a Google Gemini alkalmazásait.

A helyzet felerősítette az Anthropic és az OpenAI közötti versenyt. Az Anthropicot 2021-ben több egykori OpenAI-vezető, köztük Amodei alapította, a két cég pedig azóta is keményen verseng az AI-piacon. A Pentagon döntése után az OpenAI gyorsan bejelentette, hogy a ChatGPT bizonyos katonai környezetekben átveheti az Anthropic technológiájának szerepét.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.