Amikor az Amerikai Egyesült Államok egy "speciális katonai művelet során" lebombázta Caracast, és elrabolta onnan Venezuela elnökét, akkor több különböző eszközt is felhasználtak a 83 ember halálával járó akcióhoz. Ezek között ott volt az Anthropic gondozta Claude AI is, ami a ChatGPT egyik riválisa, és a generatív piac egyik legfontosabb szereplője.
A Wall Street Journal jelentése szerint ez volt az első mesterségesintelligencia-fejlesztés, amit az Egyesült Államok védelmi minisztériuma egy titkos műveletben használt. Ez mondjuk csak azért érdemel bármiféle említést, mert az Anthropic felhasználói szerződése szigorúan tiltja Claude erőszakos célokra vagy fegyverek kezelésére történő alkalmazását.
Amellett, hogy látszólag sem az Anthropicot, sem az Egyesült Államokat nem érdekelte a szabályszegés, a jelentések szerint az AI modell képes lehet több harcászati feladatot is ellátni a PDF-ek feldolgozásától az autonóm drónok vezérlésééig. És hogy miért foglalkozhat ilyesmivel a Claude? Mert az Anthropic a Palantir Technologies egyik legnagyobb partnere. Aki nem ismerné a Gyűrűk Ura varázstárgyáról elnevezett vállalatot (a védelmi és bűnüldözési rendszerüket egyébként Gothamnek hívják) egy elemzőről van szó, ami megfigyelési adatok eredményeit szolgáltatja ki az Egyesült Államok seregének. Gyakorlatilag ők mondják meg, hogy merre érdemes forgatni a rakétákat.
"Nem beszélhetünk arról, hogy a Claude vagy bármelyik másik AI modell felhasználásra került-e egy titkos vagy bármilyen más bevetésen. Bárki is használja a Claude-ot (legyen szó privát vagy kormányoldali felhasználásról), annak kötelező betartania a felhasználói szerződést. Szorosan együttműködünk a partnereinkkel ahhoz, hogy ez biztosítva legyen."
Az Anthropic tehát megvonta a vállát.