SG.hu
Mostantól az "elfogadhatatlan kockázatot” jelentő MI-k tiltva vannak az EU-ban

Az Európai Unió szabályozó hatóságai mostantól betilthatják az általuk „elfogadhatatlan kockázatot” vagy kárt okozónak ítélt mesterséges intelligencia-rendszerek használatát.
Február 2. volt az első megfelelési határidő az EU AI Act, egy átfogó MI-szabályozási keretrendszer számára, amelyet az Európai Parlament többéves fejlesztés után végül tavaly márciusban hagyott jóvá. A jogszabály hivatalosan augusztus 1-jén lépett hatályba, így most van az első megfelelési határidő. A konkrétumokat az 5. cikk tartalmazza, de általánosságban a törvény célja, hogy a fogyasztói alkalmazásoktól kezdve a fizikai környezetig számtalan olyan felhasználási esetet lefedjen, ahol a mesterséges intelligencia megjelenhet és kölcsönhatásba léphet az egyénekkel.
Az EU megközelítése szerint négy nagy kockázati szint létezik: (1) a minimális kockázatúak (pl. e-mail spamszűrők) nem kerülnek szabályozási felügyelet alá; (2) a korlátozott kockázatúak, amelyek közé tartoznak az ügyfélszolgálati chatbotok, enyhe szabályozási felügyelet alá esnek; (3) a magas kockázatúak - például az egészségügyi ajánlásokhoz használt MI - szigorú szabályozási felügyelet alá esnek; és (4) az elfogadhatatlan kockázatú alkalmazások - az e havi megfelelési követelmények középpontjában - teljes mértékben tilosak lesznek. Az elfogadhatatlan tevékenységek közül néhány:
Szociális pontozásra használt mesterséges intelligencia (pl. kockázati profilok készítése egy személy viselkedése alapján).
Olyan mesterséges intelligencia, amely tudat alatt vagy megtévesztő módon manipulálja egy személy döntéseit.
Az olyan sebezhetőségeket, mint az életkor, a fogyatékosság vagy a társadalmi-gazdasági státusz kihasználó mesterséges intelligencia.
Olyan mesterséges intelligencia, amely a megjelenésük alapján próbálja megjósolni a bűncselekményeket elkövető embereket.
Olyan mesterséges intelligencia, amely biometrikus adatokat használ arra, hogy következtetni tudjon egy személy jellemzőire, például szexuális irányultságára.
Olyan mesterséges intelligencia, amely „valós idejű” biometrikus adatokat gyűjt nyilvános helyeken bűnüldözési céllal.
Mesterséges intelligencia, amely megpróbál következtetni az emberek érzelmeire a munkahelyen vagy az iskolában.
Olyan mesterséges intelligencia, amely arcfelismerő adatbázisokat hoz létre - vagy bővít - online vagy biztonsági kamerák képeinek lekérdezésével.
Azokra a vállalatokra, amelyekről kiderül, hogy a fenti MI-alkalmazások bármelyikét használják az EU-ban, pénzbírságot szabnak ki, függetlenül attól, hogy hol van a székhelyük. Akár 35 millió eurót vagy az előző pénzügyi év bevételének 7%-át is fizetniük kell, attól függően, hogy melyik a nagyobb összeg. A bírságok egy ideig még nem lépnek életbe - jegyezte meg Rob Sumroy, a Slaughter and May brit ügyvédi iroda technológiai vezetője. "A szervezeteknek február 2-ig kellett teljes mértékben megfelelniük a követelményeknek, de a következő fontos határidő, amellyel a vállalatoknak tisztában kell lenniük, augusztusban lesz” - mondta Sumroy. "Addigra tudni fogjuk, hogy kik az illetékes hatóságok, és életbe lépnek a bírságok és a végrehajtási rendelkezések.”
A február 2-i határidő bizonyos szempontból formalitás. Tavaly szeptemberben több mint 100 vállalat írta alá az uniós MI-paktumot, amely egy önkéntes kötelezettségvállalás arra, hogy még a törvény hatálybalépése előtt megkezdik az MI-törvény elveinek alkalmazását. A paktum részeként az aláírók - köztük az Amazon, a Google és az OpenAI - vállalták, hogy azonosítják azokat az MI-rendszereket, amelyek az MI-törvény értelmében valószínűleg magas kockázatúnak minősülnek. Néhány technológiai óriás, nevezetesen a Meta és az Apple, nem írt alá vállalást. A francia Mistral AI startup - az MI-törvény egyik legkeményebb kritikusa - szintén úgy döntött, hogy nem írja alá.
Ez nem jelenti azt, hogy az Apple, a Meta, a Mistral vagy mások, akik nem csatlakoztak a paktumhoz, nem fogják teljesíteni kötelezettségeiket - beleértve az elfogadhatatlanul kockázatos rendszerek betiltását. Sumroy rámutat, hogy a tiltott felhasználási esetek jellegéből adódóan a legtöbb vállalat egyébként sem fog ilyen gyakorlatot folytatni. "A szervezetek számára az EU mesterséges intelligenciáról szóló törvénye kapcsán a fő aggodalomra az ad okot, hogy időben megérkeznek-e az egyértelmű iránymutatások, szabványok és magatartási kódexek - és ami döntő fontosságú, hogy ezek egyértelművé teszik-e a szervezetek számára a megfelelőséget” - mondta Sumroy. "A munkacsoportok eddig betartották a fejlesztők magatartási kódexére vonatkozó határidőket”.
A mesterséges intelligenciáról szóló törvény több tilalma alól is vannak kivételek. A törvény például megengedi a bűnüldöző szervek számára, hogy bizonyos biometrikus adatokat gyűjtő rendszereket használjanak nyilvános helyeken, ha ezek a rendszerek segítenek „célzott keresést” végezni, például egy emberrablás áldozatának felkutatásában, vagy ha segítenek megelőzni egy „konkrét, jelentős és közvetlen” életveszélyt. Ehhez a mentességhez a megfelelő irányító szerv engedélye szükséges, és a törvény hangsúlyozza, hogy a bűnüldöző szervek nem hozhatnak olyan döntést, amely kizárólag e rendszerek eredményei alapján „hátrányos jogkövetkezményt” eredményez egy személyre nézve.
A törvény kivételt képez a munkahelyi és iskolai érzelmekre következtető rendszerek számára is, amennyiben „orvosi vagy biztonsági” indokok állnak fenn, mint például a terápiás célokra tervezett rendszerek. Az Európai Bizottság, az EU végrehajtó szerve azt mondta, hogy az érdekelt felekkel novemberben folytatott konzultációt követően „2025 elején” további iránymutatásokat fog kiadni. Ezeket az iránymutatásokat azonban még nem tették közzé.
Sumroy szerint az sem világos, hogy más hatályos törvények milyen kölcsönhatásba léphetnek a mesterséges intelligenciáról szóló törvény tilalmaival és a kapcsolódó rendelkezésekkel. A tisztánlátás csak az év későbbi szakaszában, a végrehajtási ablak közeledtével érkezhet meg. "Fontos, hogy a szervezetek ne feledjék, hogy az MI-szabályozás nem elszigetelten létezik” - mondta Sumroy. "Más jogi keretek, például a GDPR, a NIS2 és a DORA kölcsönhatásba lépnek az MI-törvénnyel, ami potenciális kihívásokat teremt - különösen az átfedő incidens-értesítési követelményekkel kapcsolatban. Annak megértése, hogy ezek a jogszabályok hogyan illeszkednek egymáshoz, ugyanolyan kulcsfontosságú lesz, mint magának az MI-törvénynek a megértése.”
Február 2. volt az első megfelelési határidő az EU AI Act, egy átfogó MI-szabályozási keretrendszer számára, amelyet az Európai Parlament többéves fejlesztés után végül tavaly márciusban hagyott jóvá. A jogszabály hivatalosan augusztus 1-jén lépett hatályba, így most van az első megfelelési határidő. A konkrétumokat az 5. cikk tartalmazza, de általánosságban a törvény célja, hogy a fogyasztói alkalmazásoktól kezdve a fizikai környezetig számtalan olyan felhasználási esetet lefedjen, ahol a mesterséges intelligencia megjelenhet és kölcsönhatásba léphet az egyénekkel.
Az EU megközelítése szerint négy nagy kockázati szint létezik: (1) a minimális kockázatúak (pl. e-mail spamszűrők) nem kerülnek szabályozási felügyelet alá; (2) a korlátozott kockázatúak, amelyek közé tartoznak az ügyfélszolgálati chatbotok, enyhe szabályozási felügyelet alá esnek; (3) a magas kockázatúak - például az egészségügyi ajánlásokhoz használt MI - szigorú szabályozási felügyelet alá esnek; és (4) az elfogadhatatlan kockázatú alkalmazások - az e havi megfelelési követelmények középpontjában - teljes mértékben tilosak lesznek. Az elfogadhatatlan tevékenységek közül néhány:
Azokra a vállalatokra, amelyekről kiderül, hogy a fenti MI-alkalmazások bármelyikét használják az EU-ban, pénzbírságot szabnak ki, függetlenül attól, hogy hol van a székhelyük. Akár 35 millió eurót vagy az előző pénzügyi év bevételének 7%-át is fizetniük kell, attól függően, hogy melyik a nagyobb összeg. A bírságok egy ideig még nem lépnek életbe - jegyezte meg Rob Sumroy, a Slaughter and May brit ügyvédi iroda technológiai vezetője. "A szervezeteknek február 2-ig kellett teljes mértékben megfelelniük a követelményeknek, de a következő fontos határidő, amellyel a vállalatoknak tisztában kell lenniük, augusztusban lesz” - mondta Sumroy. "Addigra tudni fogjuk, hogy kik az illetékes hatóságok, és életbe lépnek a bírságok és a végrehajtási rendelkezések.”
A február 2-i határidő bizonyos szempontból formalitás. Tavaly szeptemberben több mint 100 vállalat írta alá az uniós MI-paktumot, amely egy önkéntes kötelezettségvállalás arra, hogy még a törvény hatálybalépése előtt megkezdik az MI-törvény elveinek alkalmazását. A paktum részeként az aláírók - köztük az Amazon, a Google és az OpenAI - vállalták, hogy azonosítják azokat az MI-rendszereket, amelyek az MI-törvény értelmében valószínűleg magas kockázatúnak minősülnek. Néhány technológiai óriás, nevezetesen a Meta és az Apple, nem írt alá vállalást. A francia Mistral AI startup - az MI-törvény egyik legkeményebb kritikusa - szintén úgy döntött, hogy nem írja alá.
Ez nem jelenti azt, hogy az Apple, a Meta, a Mistral vagy mások, akik nem csatlakoztak a paktumhoz, nem fogják teljesíteni kötelezettségeiket - beleértve az elfogadhatatlanul kockázatos rendszerek betiltását. Sumroy rámutat, hogy a tiltott felhasználási esetek jellegéből adódóan a legtöbb vállalat egyébként sem fog ilyen gyakorlatot folytatni. "A szervezetek számára az EU mesterséges intelligenciáról szóló törvénye kapcsán a fő aggodalomra az ad okot, hogy időben megérkeznek-e az egyértelmű iránymutatások, szabványok és magatartási kódexek - és ami döntő fontosságú, hogy ezek egyértelművé teszik-e a szervezetek számára a megfelelőséget” - mondta Sumroy. "A munkacsoportok eddig betartották a fejlesztők magatartási kódexére vonatkozó határidőket”.
A mesterséges intelligenciáról szóló törvény több tilalma alól is vannak kivételek. A törvény például megengedi a bűnüldöző szervek számára, hogy bizonyos biometrikus adatokat gyűjtő rendszereket használjanak nyilvános helyeken, ha ezek a rendszerek segítenek „célzott keresést” végezni, például egy emberrablás áldozatának felkutatásában, vagy ha segítenek megelőzni egy „konkrét, jelentős és közvetlen” életveszélyt. Ehhez a mentességhez a megfelelő irányító szerv engedélye szükséges, és a törvény hangsúlyozza, hogy a bűnüldöző szervek nem hozhatnak olyan döntést, amely kizárólag e rendszerek eredményei alapján „hátrányos jogkövetkezményt” eredményez egy személyre nézve.
A törvény kivételt képez a munkahelyi és iskolai érzelmekre következtető rendszerek számára is, amennyiben „orvosi vagy biztonsági” indokok állnak fenn, mint például a terápiás célokra tervezett rendszerek. Az Európai Bizottság, az EU végrehajtó szerve azt mondta, hogy az érdekelt felekkel novemberben folytatott konzultációt követően „2025 elején” további iránymutatásokat fog kiadni. Ezeket az iránymutatásokat azonban még nem tették közzé.
Sumroy szerint az sem világos, hogy más hatályos törvények milyen kölcsönhatásba léphetnek a mesterséges intelligenciáról szóló törvény tilalmaival és a kapcsolódó rendelkezésekkel. A tisztánlátás csak az év későbbi szakaszában, a végrehajtási ablak közeledtével érkezhet meg. "Fontos, hogy a szervezetek ne feledjék, hogy az MI-szabályozás nem elszigetelten létezik” - mondta Sumroy. "Más jogi keretek, például a GDPR, a NIS2 és a DORA kölcsönhatásba lépnek az MI-törvénnyel, ami potenciális kihívásokat teremt - különösen az átfedő incidens-értesítési követelményekkel kapcsolatban. Annak megértése, hogy ezek a jogszabályok hogyan illeszkednek egymáshoz, ugyanolyan kulcsfontosságú lesz, mint magának az MI-törvénynek a megértése.”