A vita a Digital Omnibus on AI Regulation Proposal nevű javaslatról szólt, amely célzott módosításokat tenne az AI Acten, és hivatalos célja az lenne, hogy egyszerűbbé és vállalatbarátabbá tegye az uniós digitális szabályozást. A gyakorlatban viszont ennél jóval kényesebb kérdésről van szó: arról, mennyire lehet visszanyúlni egy már elfogadott, de még csak fokozatosan élesedő AI-törvényhez. Kritikusok szerint a mostani egyszerűsítés éppen a korábban kiharcolt védelmi garanciarendszer visszabontását jelentené.
Az AI Act már hatályba lépett, a rendelet 2024. augusztus 1-jén indult el, és az Európai Bizottság saját összefoglalója szerint ez a világ első átfogó jogi keretrendszere a mesterséges intelligencia szabályozására. A szabályozás kockázati alapon működik, tehát másként kezeli az ártalmatlanabb rendszereket, a felhasználókat tájékoztatni köteles szolgáltatásokat, a nagy kockázatú AI-megoldásokat és azokat a felhasználásokat, amelyeket az EU eleve tiltani akar.
A rendszer egyik legfontosabb eleme a nagy kockázatú rendszerek kategóriája. Ide tartozhatnak például az oktatásban, munkaerő-felvételben, hitelbírálatban, egészségügyben, rendvédelemben vagy kritikus infrastruktúrákban használt mesterségesintelligencia-rendszerek. Ezeknél a cégeknek kockázatkezelést, dokumentációt, naplózást, megfelelő adatkészleteket, emberi felügyeletet, pontossági és kiberbiztonsági követelményeket kell biztosítaniuk.
A Bizottság jelenlegi tájékoztatása szerint a nagy kockázatú rendszerekre vonatkozó szabályok 2026-ban és 2027-ben lépnek életbe, a tiltott AI-gyakorlatokra vonatkozó rendelkezések pedig már 2025 februárjától alkalmazandók. A generatív és általános célú AI-modellekre vonatkozó szabályok szintén külön ütemezéssel élesednek.
Pontosan ezért ennyire kényes a mostani határidővita. A Digital Omnibus egyik fontos célja az lenne, hogy eltolja a nagy kockázatú AI-rendszerek egy részének alkalmazási határidejét. A jelenlegi tárgyalási irány szerint az önálló nagy kockázatú rendszerek esetében 2027. december 2-ig, a szabályozott termékekbe ágyazott rendszereknél pedig 2028. augusztus 2-ig tolódhatna a megfelelési határidő. Ehhez viszont politikai megállapodás, parlamenti szavazás, tanácsi jóváhagyás és hivatalos kihirdetés is kellene.
A cégek most két naptárral kénytelenek számolni
A technológiai cégek szempontjából ez a legrosszabb állapot, mert szabályozás már van, de nem tudni, pontosan milyen idővonal alapján élesednének elemei. Ha az Omnibus gyorsan átmegy, több érintett szereplő haladékot kaphat. Ha viszont a májusi tárgyalások is elakadnak, marad az eredeti menetrend, és a nagy kockázatú AI-rendszerekre vonatkozó kötelezettségek 2026. augusztus 2-től sok szereplőnél élesedhetnek.
Ez nemcsak a Big Tech cégek számára riasztó kérdés. A szabályozás elérhet európai szoftvercégeket, egészségügyi technológiai vállalatokat, ipari beszállítókat, HR-rendszereket fejlesztő cégeket, oktatási platformokat és olyan vállalatokat is, amelyek AI-alapú döntéstámogatást építenek a termékeikbe.
A munka pedig nem egyszerű. Egy nagy kockázatú AI-rendszernél dokumentálni kell, mire szolgál a rendszer, milyen adatokkal dolgozik, hogyan kezeli a torzításokat, milyen emberi kontroll van felette, hogyan lehet visszakövetni a döntéseit, és milyen hibakezelési folyamat lép életbe probléma esetén. Ezeket nem lehet néhány héttel a határidő előtt összedobni.
Egyszerűsítés vagy visszabontás?
Az Európai Bizottság a Digital Omnibust egyszerűsítési csomagként kezeli. A hivatalos magyarázat szerint a cél az, hogy az AI Act alkalmazása világosabb, egyszerűbb és innovációbarátabb legyen, miközben a szabályozás alapvető céljai megmaradnak. A Bizottság emellett az AI Office szerepének erősítését, a kkv-kra vonatkozó egyszerűsítéseket, a megfelelési eszközök bővítését és a szabályozási tesztkörnyezetek támogatását is említi.
A kritikusok viszont egészen másként látják ugyanezt. Digitális jogi és civil szervezetek szerint az Omnibus nem puszta technikai finomhangolás, hanem az AI Act védelmi rendszerének gyengítése lehet. Az EDRi által közzétett nyílt levél például azt állítja, hogy a csomag túlmegy a technikai módosításokon, és gyengítheti azokat a garanciákat, amelyek a biometrikus azonosítás, az iskolai AI-használat vagy más érzékeny területek esetében különösen fontosak.
Mind a két oldal álláspontja érthető. Az iparági szereplők azt mondják, hogy az AI Act túl gyorsan és túl sok bizonytalan részlettel érkezik, miközben az európai vállalatok amerikai és ázsiai versenytársakkal küzdenek. A jogvédők attól tartanak, hogy az egyszerűsítésből végül egy semmit nem érő, lyukas szabályozás lesz, amely épp a legérzékenyebb AI-rendszereknél enged túl sok mozgásteret, és már megint a magánfelhasználók maradnak védtelenek a céges önkény és ellenőrizhetetlenség nyomása alatt.
A legfontosabb vita a beépített AI-ról szól
A tárgyalásokat az akasztotta meg, hogy mi legyen azokkal az AI-rendszerekkel, amelyek valamilyen már szabályozott termék részeként működnek. Egy orvosi diagnosztikai eszköz, egy ipari gép vagy egy jármű biztonsági rendszere eddig sem volt szabályozatlan terület. A kérdés az, hogy ha ezekbe AI kerül, kell-e melléjük az AI Act külön megfelelési rendszere is.
A Parlamenthez közelebb álló irány szerint elég lehetne az ágazati termékbiztonsági szabályozás. A Tanács óvatosabb, mert egy széles kivétel jelentős számú nagy kockázatú AI-rendszert tolhatna ki az AI Act közvetlen hatálya alól. Ez technikai jogi részletnek hangzik, de valójában az egész szabályozás szerkezetét érinti.
Vagyis a kérdés az, hogy az EU külön AI-szabályozásként akarja kezelni az ilyen rendszereket, vagy beéri azzal, hogy azok a meglévő termékbiztonsági keretek között maradjanak.
Van egy pont, amiben nagyobb az egyetértés
A csomag egyik kevésbé vitatott eleme a beleegyezés nélküli intim képek és a gyermekek szexuális bántalmazását ábrázoló mesterséges tartalmak tiltása. A TNW beszámolója szerint ebben a kérdésben a Parlament és a Tanács már közelebb került egymáshoz, ami azért is fontos, mert a generatív AI-eszközök az elmúlt években látványosan megkönnyítették a hamis intim képek előállítását.
Ez viszont nem volt elég a teljes alkuhoz. A nagy kérdés továbbra is az, hogy az AI Act mennyire marad közvetlenül alkalmazható a termékekbe épített nagy kockázatú rendszerekre.
Mi következik most?
A tárgyalások májusban folytatódnak. Ha gyorsan megszületik az alku, az EU még rendezett módon eltolhatja a határidők egy részét, és a cégek világosabb menetrendet kaphatnak. Ha nem, akkor a jelenlegi AI Act szerinti határidők maradnak érvényben, és sok vállalatnak úgy kell majd megfelelési munkát végeznie, hogy közben politikai szinten továbbra is mozgásban van a szabályozás.
Ez az egész ügy jól mutatja az EU AI-stratégiájának alapfeszültségét. Brüsszel egyszerre akar globális szabályozási mintát adni, versenyképes európai technológiai piacot építeni, és nem túlterhelni azokat a cégeket, amelyeknek mindezt a gyakorlatban kellene végrehajtaniuk. Egyelőre még nem tudva, hogy pontosan mikor.