A kínai DeepSeek csendben bemutatta új v3.1 mesterséges intelligencia modelljét, amely 685 milliárd paraméterével a világ egyik legnagyobb AI rendszere. Az időzítés sem véletlen: a bejelentés mindössze két héttel követte az OpenAI GPT-5 rajtját, jelezve Peking eltökéltségét az amerikai AI fölény megtörésére.
A v3.1 legfontosabb újítása a mixture-of-experts architektúra, amely csak a szükséges alrendszereket aktiválja egy-egy lekérdezésnél. Ez gyorsabb működést és alacsonyabb költséget eredményez, ami különösen vonzóvá teszi a fejlesztők számára. A TechTalks elemzője, Ben Dickson szerint ez "a legnagyobb előrelépés", amely megkülönbözteti a modellt a nyílt forrású riválisoktól.
A geopolitikai háttér is feszült: Washington szigorította a fejlett AI chipek exportját Kínába, Peking pedig válaszul korlátozta az Nvidia-termékek beszerzését. Ennek ellenére a DeepSeek rendszerei már komoly belföldi sikereket arattak, és egyre több nemzetközi fejlesztő is kísérletezik velük.
Bár a v3.1 nem jelent akkora ugrást, mint a korábbi R1 modell, a szakértők szerint a DeepSeek folyamatos és figyelemre méltó fejlődést mutat. William Falcon, a Lightning AI vezetője úgy látja: ha az OpenAI nyílt forrású stratégiája lassul, a kínai startup valódi riválissá válhat.
Ugyanakkor egy MIT-kutatás arra figyelmeztet, hogy az AI-beruházások 95%-a nem növeli a profitot, így a hosszú távú nyertesek azok lehetnek, akik a technológiai áttöréseket valódi, mérhető üzleti eredményekre tudják váltani.