SG.hu
Az EU dönteni akar a mesterséges intelligenciáról
A spanyol elnökség fejest ugrik a tárgyalásokba, és még ezen a héten definiálni akarják a fogalmat, meghatározni a kockázatokat és az alapvető jogokra gyakorolt hatását.
Spanyolország július 1-jén vette át az EU Miniszterek Tanácsának soros elnökségét. A digitális prioritások mellett Madrid politikai megállapodásra törekszik a mesterséges intelligenciáról szóló törvényről, amely a technológia szabályozását célzó mérföldkőnek számító jogszabály. Előzetesen a távközlési munkacsoport keretében tartandó eszmecserén a mesterséges intelligenciára vonatkozó szabályrendszer négy kritikus pontját jelölték meg, és az elnökség álláspontja az EU Tanácsával, a Parlamenttel és a Bizottsággal július 18-án tartandó következő, úgynevezett háromoldalú tárgyalási ülésen fog kialakulni.
Az Európai Parlament fogalommeghatározása az OECD meghatározásához igazodik. Ez alapján "a mesterséges intelligenciarendszer (MI-rendszer) olyan gépi alapú rendszert jelent, amelyet úgy terveztek, hogy különböző szintű autonómiával működjön, és amely kifejezett vagy implicit célok érdekében képes olyan kimenetet létrehozni, mint például előrejelzések, ajánlások vagy fizikai vagy virtuális környezetet befolyásoló döntések" - olvasható a Parlament szövegében. A Tanács átvett ugyan néhány elemet az OECD definíciójából, de azt leszűkítették a gépi tanulási megközelítésekre, valamint a logikai és tudásalapú megközelítésekre, hogy a hagyományos szoftverek ne kerüljenek a definíció hatálya alá. "Az OECD definíciója olyan szoftverekre is kiterjed, amelyeket nem kellene mesterséges intelligenciának minősíteni" - olvasható az elnökség feljegyzésében.
A mesterséges intelligenciáról szóló törvény előírja, hogy az emberek biztonságát és alapvető jogait nagymértékben veszélyeztető rendszerek fejlesztői a kockázatkezelés, az adatkezelés és a műszaki dokumentáció tekintetében szigorúbb szabályozásnak kell, hogy megfeleljenek. Az, hogy a rendszereket hogyan kell ebbe a kategóriába sorolni, súlyos viták tárgyát képezte. Kezdetben a törvénytervezet automatikusan ezen felhasználási esetek közé sorolta a magas kockázatú mesterséges intelligencia-alkalmazásokat, de végül megszüntették ezt az automatizmust, és bevezettek egy "extra réteget".
Ha egy MI-t magas kockázatúnak sorolnak be, akkor nagyon szigorú átláthatósági követelményeknek kell megfelelnie
A Tanács szerint ez a réteg a mesterséges intelligencia rendszer kimenetének a döntéshozatali folyamatban betöltött jelentőségére vonatkozik, a pusztán járulékos kimenetek pedig nem tartoznak a hatálya alá. Az európai parlamenti képviselők olyan rendszert vezettek be, amelyben a mesterséges intelligencia fejlesztőinek az EU Bizottsága által adott útmutatás alapján saját maguknak kell értékelniük, hogy egy alkalmazás magas kockázatú-e. Ha a cégek úgy ítélik meg, hogy rendszerük nem minősül magas kockázatúnak, akkor tájékoztatniuk kell az illetékes hatóságot, amelynek három hónapon belül válaszolnia kell, ha úgy ítélik meg, hogy téves besorolás történt.
A lehetőségek között ismét a Tanács általános megközelítésének fenntartása vagy a Parlament felé való elmozdulás szerepel, de ebben az esetben is több köztes megoldás is elképzelhető. Az egyik lehetőség az európai parlamenti változat elfogadása, de az illetékes hatóságok értesítése nélkül. Alternatív megoldásként ezt a változatot tovább lehetne finomítani, és a mesterséges intelligencia szolgáltatók számára egyértelmű kritériumokat lehetne bevezetni, amelyek alapján az önértékelés kötelező szabályként, nem pedig "puha" útmutatásként valósulhatna meg. A végső javaslatban kötelező kritériumokat határoznak meg, valamint további iránymutatást nyújtanak a szolgáltatók számára, például elkészítve a nem magas kockázatúnak tekintendő MI-rendszerek példatárát.
Az uniós országok végezetül törölték a súlyos kockázatú listáról a bűnüldöző hatóságok által végzett mélyhamisítás-felismerést, a bűnügyi elemzést és az úti okmányok hitelességének ellenőrzését, ugyanakkor a kritikus digitális infrastruktúrát, valamint az élet- és egészségbiztosítást felvették arra. Az európai parlamenti képviselők viszont jelentősen kibővítették azt: bevezették a biometriát, a kritikus infrastruktúrát, a legnagyobb közösségi médiumok ajánlórendszereit, a választási eredményeket befolyásolni képes rendszereket, a vitarendezésben használt mesterséges intelligenciát és a határigazgatást.
Spanyolország július 1-jén vette át az EU Miniszterek Tanácsának soros elnökségét. A digitális prioritások mellett Madrid politikai megállapodásra törekszik a mesterséges intelligenciáról szóló törvényről, amely a technológia szabályozását célzó mérföldkőnek számító jogszabály. Előzetesen a távközlési munkacsoport keretében tartandó eszmecserén a mesterséges intelligenciára vonatkozó szabályrendszer négy kritikus pontját jelölték meg, és az elnökség álláspontja az EU Tanácsával, a Parlamenttel és a Bizottsággal július 18-án tartandó következő, úgynevezett háromoldalú tárgyalási ülésen fog kialakulni.
Az Európai Parlament fogalommeghatározása az OECD meghatározásához igazodik. Ez alapján "a mesterséges intelligenciarendszer (MI-rendszer) olyan gépi alapú rendszert jelent, amelyet úgy terveztek, hogy különböző szintű autonómiával működjön, és amely kifejezett vagy implicit célok érdekében képes olyan kimenetet létrehozni, mint például előrejelzések, ajánlások vagy fizikai vagy virtuális környezetet befolyásoló döntések" - olvasható a Parlament szövegében. A Tanács átvett ugyan néhány elemet az OECD definíciójából, de azt leszűkítették a gépi tanulási megközelítésekre, valamint a logikai és tudásalapú megközelítésekre, hogy a hagyományos szoftverek ne kerüljenek a definíció hatálya alá. "Az OECD definíciója olyan szoftverekre is kiterjed, amelyeket nem kellene mesterséges intelligenciának minősíteni" - olvasható az elnökség feljegyzésében.
A mesterséges intelligenciáról szóló törvény előírja, hogy az emberek biztonságát és alapvető jogait nagymértékben veszélyeztető rendszerek fejlesztői a kockázatkezelés, az adatkezelés és a műszaki dokumentáció tekintetében szigorúbb szabályozásnak kell, hogy megfeleljenek. Az, hogy a rendszereket hogyan kell ebbe a kategóriába sorolni, súlyos viták tárgyát képezte. Kezdetben a törvénytervezet automatikusan ezen felhasználási esetek közé sorolta a magas kockázatú mesterséges intelligencia-alkalmazásokat, de végül megszüntették ezt az automatizmust, és bevezettek egy "extra réteget".
Ha egy MI-t magas kockázatúnak sorolnak be, akkor nagyon szigorú átláthatósági követelményeknek kell megfelelnie
A Tanács szerint ez a réteg a mesterséges intelligencia rendszer kimenetének a döntéshozatali folyamatban betöltött jelentőségére vonatkozik, a pusztán járulékos kimenetek pedig nem tartoznak a hatálya alá. Az európai parlamenti képviselők olyan rendszert vezettek be, amelyben a mesterséges intelligencia fejlesztőinek az EU Bizottsága által adott útmutatás alapján saját maguknak kell értékelniük, hogy egy alkalmazás magas kockázatú-e. Ha a cégek úgy ítélik meg, hogy rendszerük nem minősül magas kockázatúnak, akkor tájékoztatniuk kell az illetékes hatóságot, amelynek három hónapon belül válaszolnia kell, ha úgy ítélik meg, hogy téves besorolás történt.
A lehetőségek között ismét a Tanács általános megközelítésének fenntartása vagy a Parlament felé való elmozdulás szerepel, de ebben az esetben is több köztes megoldás is elképzelhető. Az egyik lehetőség az európai parlamenti változat elfogadása, de az illetékes hatóságok értesítése nélkül. Alternatív megoldásként ezt a változatot tovább lehetne finomítani, és a mesterséges intelligencia szolgáltatók számára egyértelmű kritériumokat lehetne bevezetni, amelyek alapján az önértékelés kötelező szabályként, nem pedig "puha" útmutatásként valósulhatna meg. A végső javaslatban kötelező kritériumokat határoznak meg, valamint további iránymutatást nyújtanak a szolgáltatók számára, például elkészítve a nem magas kockázatúnak tekintendő MI-rendszerek példatárát.
Az uniós országok végezetül törölték a súlyos kockázatú listáról a bűnüldöző hatóságok által végzett mélyhamisítás-felismerést, a bűnügyi elemzést és az úti okmányok hitelességének ellenőrzését, ugyanakkor a kritikus digitális infrastruktúrát, valamint az élet- és egészségbiztosítást felvették arra. Az európai parlamenti képviselők viszont jelentősen kibővítették azt: bevezették a biometriát, a kritikus infrastruktúrát, a legnagyobb közösségi médiumok ajánlórendszereit, a választási eredményeket befolyásolni képes rendszereket, a vitarendezésben használt mesterséges intelligenciát és a határigazgatást.