Egy amerikai bíróság ideiglenesen megtiltotta, hogy a Pentagon ellátási láncbeli kockázatként kezelje az Anthropic nevű mesterségesintelligencia-vállalatot. A döntést Rita Lin kerületi bíró hozta meg, miután a cég pert indított az amerikai Védelmi Minisztérium ellen. A vita azt követően robbant ki, hogy a hadsereg olyan felhasználási módokat követelt a vállalat AI-rendszerétől, amelyeket az Anthropic biztonsági irányelvei nem engedélyeztek. A kormány azzal érvelt, hogy jogában áll bármilyen törvényes módon használni az eszközt, a bíró azonban hangsúlyozta, az ügy nem erről, hanem a Pentagon reakciójáról szól, miután a cég nemet mondott.
A bíróság szerint nem támasztja alá jogszabály azt a megközelítést, amely szerint egy amerikai vállalatot potenciális ellenségként lehetne megbélyegezni pusztán azért, mert nem ért egyet a kormánnyal. Lin bíró úgy fogalmazott, hogy a Pentagon akár egyszerűen le is mondhatna az érintett technológia használatáról, ehelyett azonban inkább büntető jellegű intézkedéseket hozott. A konfliktus gyökere az volt, hogy az Anthropic vezérigazgatója, Dario Amodei elutasította, hogy a Claude nevű AI-rendszert tömeges belföldi megfigyelésre vagy teljesen autonóm fegyverek működtetésére használják, arra hivatkozva, hogy ezek komoly biztonsági és etikai kockázatokat hordoznak.
Az ügy politikai visszhangot is kiváltott. Donald Trump amerikai elnök élesen bírálta a vállalat döntését, és felszólította a szövetségi ügynökségeket az Anthropic technológiájának azonnali leállítására. A cég ugyanakkor kitart álláspontja mellett, és további jogi lépéseket tett, arra hivatkozva, hogy a "kockázatos beszállító" minősítés sérti az alkotmányos jogait. Bár a mostani bírósági döntés átmeneti győzelmet jelent számukra, az ügy még korántsem zárult le, miközben egy másik AI-vállalat, az OpenAI már megállapodást kötött a Pentagonnal rendszereinek katonai alkalmazásáról.