Berta Sándor
EU - szabályoznák a mesterséges intelligencia károkért való felelősségvállalást
Egy új irányelvben határoznák meg, hogy a technológia által okozott károkért kiknek kell felelniük.
Az Európai Unió mesterséges intelligencia felelősségi irányelve szeptember 28-án kerül kihirdetésre és a célja az, hogy kiegészítse a korábban elkészített mesterséges intelligencia törvényt, amely előírja a technológián alapuló rendszerekre vonatkozó követelmények bevezetését azok kockázati szintje alapján. A EURACTIV által megszerzett tervezet alapján az Európai Bizottság olyan felelősségi rendszert fog előterjeszteni a mesterséges intelligencia által okozott károkra vonatkozóan, amely az alperesre az ok-okozati összefüggés vélelmét veti fel.
"Az új irányelv nagyon célzott és arányos könnyítést biztosít a bizonyítási teher alól a közzététel és a megdönthető vélelmek révén. Ezek az intézkedések segíteni fogják a mesterséges intelligencia rendszerek által okozott károkért kártérítést kérő magánszemélyeket abban, hogy kezeljék a bizonyítási terhüket, így a jogos felelősségre vonatkozó követelések sikerrel járhatnak" - áll többek között a tervezetben.
Az irányelv-tervezet az Európai Parlament 2020 októberében elfogadott saját kezdeményezésű állásfoglalását követi, amely a bizonyítási teher könnyítését és a mesterséges intelligenciát támogató technológiák szigorú felelősségi rendszerét szorgalmazza. A következetesség érdekében a mesterséges intelligenciáról szóló törvény közvetlenül utal a mesterséges intelligencia rendszerek fogalommeghatározására, beleértve a magas kockázatú rendszereket, a mesterséges intelligencia szolgáltatókat és a felhasználókat is.
Az irányelv a mesterséges intelligencia rendszer által okozott szerződésen kívüli polgári jogi kártérítési igényekre vonatkozik a vétkességen alapuló felelősségi rendszerekben. Más szóval, olyan esetekben, amikor valaki felelősségre vonható egy adott cselekményért vagy mulasztásért. Az elképzelések alapján ezek a rendelkezések kiegészítik a meglévő polgári jogi felelősségi rendszereket, mivel a vélelemtől eltekintve az irányelv nem érinti a bizonyítási teherre, a bizonyítás színvonalához szükséges jogbiztonság mértékére vagy a vétkesség meghatározására vonatkozó nemzeti szabályokat. Amíg a büntetőjogi vagy közlekedési felelősség kizárásra kerül a hatályból, a rendelkezések a nemzeti hatóságokra is alkalmazandók lennének, amennyiben a madárinformatikai törvény kötelezi őket.
A mesterséges intelligenciáról szóló rendeletek előírják, hogy a dokumentációt a mesterséges intelligencia rendszer forgalomba hozatalát követő tíz évig meg kell őrizni. A kért információk közé tartoznak a rendszer kifejlesztéséhez használt adatkészletek, a műszaki dokumentáció, a protokollok, a minőségirányítási rendszer és az esetleges korrekciós intézkedések. A címzettek elutasíthatják a kérelmet, amelyet aztán a bírósági eljárás során újra előterjeszthetnek. Ennek során a bíró értékeli, hogy a kérelem indokolt-e és szükséges-e a mesterséges intelligencia által okozott balesetek esetén történő igényérvényesítéshez. Ezekre a nyilvánosságra hozatalokra - különösen az üzleti titkok esetében - védintézkedések és az arányosság elve vonatkozik. A bíróság azt is elrendelheti, hogy a szolgáltató a szükségesnek ítélt ideig őrizze meg ezeket az információkat.
A különböző vizsgált tényezők közé tartozik a megfelelő emberi felügyelet hiánya vagy a szükséges korrekciós intézkedések késedelem nélküli végrehajtásának hanyagsága. Az Európai Bizottság emellett létrehozza a mesterséges intelligencia rendszereket érintő incidensek megfigyelési programját és öt éven belül célzott felülvizsgálatot végez annak megállapítására, hogy szükség van-e további intézkedésekre. Az európai uniós tagállamoknak a hatálybalépést követően két évük van arra, hogy az irányelvet átültessék nemzeti jogukba. Az integrálási folyamat során a tagországok a kérelmezők számára kedvezőbb nemzeti szabályokat is elfogadhatnak, amennyiben azok összeegyeztethetők az uniós joggal.
Az Európai Unió mesterséges intelligencia felelősségi irányelve szeptember 28-án kerül kihirdetésre és a célja az, hogy kiegészítse a korábban elkészített mesterséges intelligencia törvényt, amely előírja a technológián alapuló rendszerekre vonatkozó követelmények bevezetését azok kockázati szintje alapján. A EURACTIV által megszerzett tervezet alapján az Európai Bizottság olyan felelősségi rendszert fog előterjeszteni a mesterséges intelligencia által okozott károkra vonatkozóan, amely az alperesre az ok-okozati összefüggés vélelmét veti fel.
"Az új irányelv nagyon célzott és arányos könnyítést biztosít a bizonyítási teher alól a közzététel és a megdönthető vélelmek révén. Ezek az intézkedések segíteni fogják a mesterséges intelligencia rendszerek által okozott károkért kártérítést kérő magánszemélyeket abban, hogy kezeljék a bizonyítási terhüket, így a jogos felelősségre vonatkozó követelések sikerrel járhatnak" - áll többek között a tervezetben.
Az irányelv-tervezet az Európai Parlament 2020 októberében elfogadott saját kezdeményezésű állásfoglalását követi, amely a bizonyítási teher könnyítését és a mesterséges intelligenciát támogató technológiák szigorú felelősségi rendszerét szorgalmazza. A következetesség érdekében a mesterséges intelligenciáról szóló törvény közvetlenül utal a mesterséges intelligencia rendszerek fogalommeghatározására, beleértve a magas kockázatú rendszereket, a mesterséges intelligencia szolgáltatókat és a felhasználókat is.
Az irányelv a mesterséges intelligencia rendszer által okozott szerződésen kívüli polgári jogi kártérítési igényekre vonatkozik a vétkességen alapuló felelősségi rendszerekben. Más szóval, olyan esetekben, amikor valaki felelősségre vonható egy adott cselekményért vagy mulasztásért. Az elképzelések alapján ezek a rendelkezések kiegészítik a meglévő polgári jogi felelősségi rendszereket, mivel a vélelemtől eltekintve az irányelv nem érinti a bizonyítási teherre, a bizonyítás színvonalához szükséges jogbiztonság mértékére vagy a vétkesség meghatározására vonatkozó nemzeti szabályokat. Amíg a büntetőjogi vagy közlekedési felelősség kizárásra kerül a hatályból, a rendelkezések a nemzeti hatóságokra is alkalmazandók lennének, amennyiben a madárinformatikai törvény kötelezi őket.
A mesterséges intelligenciáról szóló rendeletek előírják, hogy a dokumentációt a mesterséges intelligencia rendszer forgalomba hozatalát követő tíz évig meg kell őrizni. A kért információk közé tartoznak a rendszer kifejlesztéséhez használt adatkészletek, a műszaki dokumentáció, a protokollok, a minőségirányítási rendszer és az esetleges korrekciós intézkedések. A címzettek elutasíthatják a kérelmet, amelyet aztán a bírósági eljárás során újra előterjeszthetnek. Ennek során a bíró értékeli, hogy a kérelem indokolt-e és szükséges-e a mesterséges intelligencia által okozott balesetek esetén történő igényérvényesítéshez. Ezekre a nyilvánosságra hozatalokra - különösen az üzleti titkok esetében - védintézkedések és az arányosság elve vonatkozik. A bíróság azt is elrendelheti, hogy a szolgáltató a szükségesnek ítélt ideig őrizze meg ezeket az információkat.
A különböző vizsgált tényezők közé tartozik a megfelelő emberi felügyelet hiánya vagy a szükséges korrekciós intézkedések késedelem nélküli végrehajtásának hanyagsága. Az Európai Bizottság emellett létrehozza a mesterséges intelligencia rendszereket érintő incidensek megfigyelési programját és öt éven belül célzott felülvizsgálatot végez annak megállapítására, hogy szükség van-e további intézkedésekre. Az európai uniós tagállamoknak a hatálybalépést követően két évük van arra, hogy az irányelvet átültessék nemzeti jogukba. Az integrálási folyamat során a tagországok a kérelmezők számára kedvezőbb nemzeti szabályokat is elfogadhatnak, amennyiben azok összeegyeztethetők az uniós joggal.