SG.hu
A spanyol EU-elnökség véglegesíteni akarja a mesterséges intelligencia-törvényt
A spanyol elnökségnek ezen a hétvégén le kell zárnia a mesterséges intelligenciáról szóló uniós jogszabály technikai előkészítését, hogy a tervezett decemberi utolsó magas szintű találkozón politikai megállapodás születhessen az ügyről.
A mesterséges intelligenciáról szóló törvény mérföldkőnek számító jogszabály, amely a technológiát annak károsító képessége alapján kívánja szabályozni. A törvényjavaslat jelenleg a jogalkotási folyamat utolsó szakaszában van, amikor az EU Bizottság, a Tanács és a Parlament képviselői "háromoldalúan" találkoznak. Mivel Spanyolország tölti be az EU Tanácsának soros elnökségét, Madridnak a következő, december 6-i háromoldalú egyeztetés előtt dűlőre kell vinnie a vitás kérdéseket, mert ez utolsó lehetőség arra, hogy a spanyol elnökség alatt - és az európai választási szünet előtt - politikai megállapodás szülessen a mesterséges intelligenciáról szóló törvényről. Az eddigi eredményekről a jövő héten szerdán és pénteken tárgyalnak majd nagyköveti szinten, ezért az elnökség igyekszik e hétvégén minden szálat elvarrni.
Az elmúlt hetekben az érintett uniós döntéshozók összecsaptak az olyan nagy teljesítményű alapmodellek szabályozásával kapcsolatban, mint a GPT-4, amely a világ leghíresebb chatbotját, a ChatGPT-t, az általános célú mesterséges intelligencia (General Purpose AI) néven ismert sokoldalú rendszertípust működteti. Az összecsapás után az egész szabályozás kisiklással fenyegetett, mivel Európa három legnagyobb gazdasága egyes vállalatok lobbizása miatt felszólalt az alapmodellekre eredetileg tervezett többszintű megközelítés ellen, és a magatartási kódexeken kívül minden más szabályozást visszautasított.
Az Európai Parlament azonban úgy véli, hogy az alapítványi modellekre vonatkozó kötelezettségek mellőzése nem jöhet szóba. A szöveg fenntartja a többszintű megközelítést, de az általános célú mesterséges intelligenciára összpontosít, enyhíti a kötelezettségeket és gyakorlati kódexeket vezet be. A szöveg jelentősen eltér a spanyol elnökség által beterjesztett szövegtől, lényege, hogy különbséget tesz az általános célú mesterséges intelligencia (GPAI) modellek és rendszerek között. "Az általános célú mesterséges intelligenciamodell olyan mesterséges intelligenciamodellt jelent, amelyet nagy mennyiségű adat felhasználásával, önfelügyelet segítségével képeztek ki, és amely képes jellegzetes feladatok széles körének kompetens elvégzésére, függetlenül attól, hogy a modell milyen módon kerül piacra" - olvasható az új meghatározásban.
Ezzel szemben egy GPAI rendszer "olyan mesterséges intelligenciamodellre épülne, amely képes sokféle célt szolgálni, mind közvetlen használatra, mind más mesterséges intelligencia rendszerekbe való integrálásra". Az elképzelés szerint a GPAI-modellek a "megfelelő" technikai eszközökön és módszertanon alapuló "határképességekhez" kapcsolódó rendszerkockázatokkal járhatnak. A jegyzetekben a társelőadók megkérdőjelezik a terminológiát és a szöveg homályosságát. E minőségi kritérium mellett a tervezet kezdetben egyetlen kvantitatív küszöbérték alapján osztályozza a rendszerszintű kockázatot jelentő GPAI-modelleket: a képzésükhöz felhasznált számítási mennyiség a lebegőpontos műveletekben, a számítógép teljesítményének mérőszámában mérve nagyobb, mint 1026.
A Bizottság felhatalmazást kapna arra, hogy másodlagos jogszabályt fogadjon el az általános modellek technikai elemeinek további pontosítása és a referenciaértékek naprakészen tartása érdekében a piaci és technológiai fejlődéssel összhangban. A társelőadók észrevételeket tettek, és azt kérdezték, hogy a Bizottság megbízható-e az általános magas színvonalú gPAI-modellek meghatározásának aktualizálásával, és javasolhatnak-e további megfogalmazást, amely előírja, hogy az EU végrehajtó szervének a rendelet hatálybalépésétől számított 18 hónapon belül ki kell dolgoznia egy módszertant a számítási képzési képességek értékelésére.
A digitális szolgáltatásokról szóló törvényhez hasonlóan az ezt a küszöbértéket elérő GPAI-modellek szolgáltatóinak értesíteniük kell a Bizottságot. A szöveg azonban tartalmazza annak lehetőségét, hogy a szolgáltatók mentességet kérjenek, arra hivatkozva, hogy modelljük nem rendelkezik megfelelő képességekkel - ezt a rendelkezést a társelőadók a jelek szerint szükségtelennek tartják. A Bizottság saját kezdeményezésére is kijelölheti a rendszerszintű kockázatot jelentő GPAI modelleket.
A szöveg valamennyi GPAI-modellre vonatkozóan tartalmaz bizonyos horizontális kötelezettségeket, amelyek a modellkártyákon keresztül naprakész műszaki dokumentációt írnának elő - ez a javaslat a francia-német-olasz nem hivatalos dokumentumban is szerepel. A modellkártyák információkat tartalmaznának a képzési folyamatról, az értékelési stratégiákról, valamint elegendő információt azon gazdasági szereplők számára, amelyek a modellre új mesterséges intelligencia rendszert kívánnak építeni a mesterséges intelligenciáról szóló törvénynek való megfelelés érdekében. Az elemek minimális számát egy melléklet részletezi.
A szerzői jogokkal kapcsolatban a szöveg csupán annyit mond ki, hogy a modellszolgáltatóknak olyan politikát kell alkalmazniuk, amely tiszteletben tartja a szerzői jogi irányelvet, különösen a jogfenntartást. A modell képzéséhez felhasznált tartalom "kellően részletes összefoglalóját" közzé kell tenni. A szintetikusan generált tartalmat - például szöveget és képeket - gépileg olvasható formátumban felismerhetővé kell tenni, és meg kell jelölni, hogy mesterségesen generált vagy manipulált tartalomról van szó.
A rendszerkockázatot jelentő modellekre vonatkozó további követelmények közé tartozik a belső intézkedések létrehozása és a Bizottsággal való együttműködés a potenciális rendszerkockázatok azonosítása és a lehetséges enyhítő intézkedések kidolgozása érdekében, többek között a nemzetközi megközelítésekkel összhangban lévő magatartási kódexen keresztül. Ezeknek a szolgáltatóknak továbbá nyomon kell követniük és azonnal jelenteniük kell a Bizottságnak vagy a nemzeti hatóságoknak a súlyos incidenseket és hogy milyen korrekciós intézkedéseket tettek.
Az alapmodellek kényes kérdésével kapcsolatban a dokumentum megjegyzi, hogy "az elnökség mindent megtett annak érdekében, hogy a Tanácson belül a különböző észrevételeket úgy hangolja össze, hogy az Európai Parlamenttel való megállapodás lehetséges legyen". A spanyolok hangsúlyozták, hogy a Franciaország, Németország és Olaszország által kért, a magatartási kódexeknek meghatározó szerepet adó fő elem bekerült a szövegbe. Szerdán a Bizottság vezető digitális bürokratája, Roberto Viola másfél órás előadást tartott az uniós nagyköveteknek a kompromisszumról.
Franciaország a megbeszélésen kitartott azon álláspontja mellett, hogy nem kell szabályozni az alapmodelleket. Németország rugalmasabbnak mutatkozott, míg a liberális országok egy csoportja fenntartásokat fogalmazott meg, de nyitottságot mutatott a kompromisszumra, hogy megállapodásra jussanak az Európai Parlamenttel. Egy keddi belső megbeszélésen több, a mesterséges intelligenciáról szóló törvénnyel foglalkozó európai parlamenti képviselő kritikus véleményt fogalmazott meg a Bizottság alapmodellekről és irányításról szóló szövegével kapcsolatban, azonban a jogszabály véglegesítése érdekében kifejtett politikai nyomás a szkeptikusabb törvényhozókat a kompromisszum elfogadására kényszerítheti.
A nyílt forráskóddal kapcsolatban az elnökség úgy érvel, hogy ez a technológia az innováció egyik kritikus mozgatórugója, de a mesterséges intelligencia termékek használatához vagy jellemzőihez kapcsolódó kockázatok nem függnek attól, hogy milyen licenc alapján adták át azokat. Ugyanakkor a feljegyzés leszögezi, hogy a nagy kockázatú mesterséges intelligencia rendszerek és a nagy hatású alapmodellek - vagy ahogy most nevezik, a rendszerkockázatot jelentő általános célú mesterséges intelligencia modellek - továbbra is a rendelet hatálya alá tartoznak. A tagállamokat megkérdezik, hogy el tudják-e fogadni ezt a megközelítést. Még nem világos, hogy az elnökség elfogadja-e az EU Parlament megbízását, amely hasonlóképpen kizárta a rendelet hatálya alól az ingyenes és nyílt forráskódú licencekkel biztosított MI-összetevőket, kivéve a nagy kockázatú felhasználásokat és az alapmodelleket.
A mesterséges intelligenciáról szóló törvény mérföldkőnek számító jogszabály, amely a technológiát annak károsító képessége alapján kívánja szabályozni. A törvényjavaslat jelenleg a jogalkotási folyamat utolsó szakaszában van, amikor az EU Bizottság, a Tanács és a Parlament képviselői "háromoldalúan" találkoznak. Mivel Spanyolország tölti be az EU Tanácsának soros elnökségét, Madridnak a következő, december 6-i háromoldalú egyeztetés előtt dűlőre kell vinnie a vitás kérdéseket, mert ez utolsó lehetőség arra, hogy a spanyol elnökség alatt - és az európai választási szünet előtt - politikai megállapodás szülessen a mesterséges intelligenciáról szóló törvényről. Az eddigi eredményekről a jövő héten szerdán és pénteken tárgyalnak majd nagyköveti szinten, ezért az elnökség igyekszik e hétvégén minden szálat elvarrni.
Az elmúlt hetekben az érintett uniós döntéshozók összecsaptak az olyan nagy teljesítményű alapmodellek szabályozásával kapcsolatban, mint a GPT-4, amely a világ leghíresebb chatbotját, a ChatGPT-t, az általános célú mesterséges intelligencia (General Purpose AI) néven ismert sokoldalú rendszertípust működteti. Az összecsapás után az egész szabályozás kisiklással fenyegetett, mivel Európa három legnagyobb gazdasága egyes vállalatok lobbizása miatt felszólalt az alapmodellekre eredetileg tervezett többszintű megközelítés ellen, és a magatartási kódexeken kívül minden más szabályozást visszautasított.
Az Európai Parlament azonban úgy véli, hogy az alapítványi modellekre vonatkozó kötelezettségek mellőzése nem jöhet szóba. A szöveg fenntartja a többszintű megközelítést, de az általános célú mesterséges intelligenciára összpontosít, enyhíti a kötelezettségeket és gyakorlati kódexeket vezet be. A szöveg jelentősen eltér a spanyol elnökség által beterjesztett szövegtől, lényege, hogy különbséget tesz az általános célú mesterséges intelligencia (GPAI) modellek és rendszerek között. "Az általános célú mesterséges intelligenciamodell olyan mesterséges intelligenciamodellt jelent, amelyet nagy mennyiségű adat felhasználásával, önfelügyelet segítségével képeztek ki, és amely képes jellegzetes feladatok széles körének kompetens elvégzésére, függetlenül attól, hogy a modell milyen módon kerül piacra" - olvasható az új meghatározásban.
Ezzel szemben egy GPAI rendszer "olyan mesterséges intelligenciamodellre épülne, amely képes sokféle célt szolgálni, mind közvetlen használatra, mind más mesterséges intelligencia rendszerekbe való integrálásra". Az elképzelés szerint a GPAI-modellek a "megfelelő" technikai eszközökön és módszertanon alapuló "határképességekhez" kapcsolódó rendszerkockázatokkal járhatnak. A jegyzetekben a társelőadók megkérdőjelezik a terminológiát és a szöveg homályosságát. E minőségi kritérium mellett a tervezet kezdetben egyetlen kvantitatív küszöbérték alapján osztályozza a rendszerszintű kockázatot jelentő GPAI-modelleket: a képzésükhöz felhasznált számítási mennyiség a lebegőpontos műveletekben, a számítógép teljesítményének mérőszámában mérve nagyobb, mint 1026.
A Bizottság felhatalmazást kapna arra, hogy másodlagos jogszabályt fogadjon el az általános modellek technikai elemeinek további pontosítása és a referenciaértékek naprakészen tartása érdekében a piaci és technológiai fejlődéssel összhangban. A társelőadók észrevételeket tettek, és azt kérdezték, hogy a Bizottság megbízható-e az általános magas színvonalú gPAI-modellek meghatározásának aktualizálásával, és javasolhatnak-e további megfogalmazást, amely előírja, hogy az EU végrehajtó szervének a rendelet hatálybalépésétől számított 18 hónapon belül ki kell dolgoznia egy módszertant a számítási képzési képességek értékelésére.
A digitális szolgáltatásokról szóló törvényhez hasonlóan az ezt a küszöbértéket elérő GPAI-modellek szolgáltatóinak értesíteniük kell a Bizottságot. A szöveg azonban tartalmazza annak lehetőségét, hogy a szolgáltatók mentességet kérjenek, arra hivatkozva, hogy modelljük nem rendelkezik megfelelő képességekkel - ezt a rendelkezést a társelőadók a jelek szerint szükségtelennek tartják. A Bizottság saját kezdeményezésére is kijelölheti a rendszerszintű kockázatot jelentő GPAI modelleket.
A szöveg valamennyi GPAI-modellre vonatkozóan tartalmaz bizonyos horizontális kötelezettségeket, amelyek a modellkártyákon keresztül naprakész műszaki dokumentációt írnának elő - ez a javaslat a francia-német-olasz nem hivatalos dokumentumban is szerepel. A modellkártyák információkat tartalmaznának a képzési folyamatról, az értékelési stratégiákról, valamint elegendő információt azon gazdasági szereplők számára, amelyek a modellre új mesterséges intelligencia rendszert kívánnak építeni a mesterséges intelligenciáról szóló törvénynek való megfelelés érdekében. Az elemek minimális számát egy melléklet részletezi.
A szerzői jogokkal kapcsolatban a szöveg csupán annyit mond ki, hogy a modellszolgáltatóknak olyan politikát kell alkalmazniuk, amely tiszteletben tartja a szerzői jogi irányelvet, különösen a jogfenntartást. A modell képzéséhez felhasznált tartalom "kellően részletes összefoglalóját" közzé kell tenni. A szintetikusan generált tartalmat - például szöveget és képeket - gépileg olvasható formátumban felismerhetővé kell tenni, és meg kell jelölni, hogy mesterségesen generált vagy manipulált tartalomról van szó.
A rendszerkockázatot jelentő modellekre vonatkozó további követelmények közé tartozik a belső intézkedések létrehozása és a Bizottsággal való együttműködés a potenciális rendszerkockázatok azonosítása és a lehetséges enyhítő intézkedések kidolgozása érdekében, többek között a nemzetközi megközelítésekkel összhangban lévő magatartási kódexen keresztül. Ezeknek a szolgáltatóknak továbbá nyomon kell követniük és azonnal jelenteniük kell a Bizottságnak vagy a nemzeti hatóságoknak a súlyos incidenseket és hogy milyen korrekciós intézkedéseket tettek.
Az alapmodellek kényes kérdésével kapcsolatban a dokumentum megjegyzi, hogy "az elnökség mindent megtett annak érdekében, hogy a Tanácson belül a különböző észrevételeket úgy hangolja össze, hogy az Európai Parlamenttel való megállapodás lehetséges legyen". A spanyolok hangsúlyozták, hogy a Franciaország, Németország és Olaszország által kért, a magatartási kódexeknek meghatározó szerepet adó fő elem bekerült a szövegbe. Szerdán a Bizottság vezető digitális bürokratája, Roberto Viola másfél órás előadást tartott az uniós nagyköveteknek a kompromisszumról.
Franciaország a megbeszélésen kitartott azon álláspontja mellett, hogy nem kell szabályozni az alapmodelleket. Németország rugalmasabbnak mutatkozott, míg a liberális országok egy csoportja fenntartásokat fogalmazott meg, de nyitottságot mutatott a kompromisszumra, hogy megállapodásra jussanak az Európai Parlamenttel. Egy keddi belső megbeszélésen több, a mesterséges intelligenciáról szóló törvénnyel foglalkozó európai parlamenti képviselő kritikus véleményt fogalmazott meg a Bizottság alapmodellekről és irányításról szóló szövegével kapcsolatban, azonban a jogszabály véglegesítése érdekében kifejtett politikai nyomás a szkeptikusabb törvényhozókat a kompromisszum elfogadására kényszerítheti.
A nyílt forráskóddal kapcsolatban az elnökség úgy érvel, hogy ez a technológia az innováció egyik kritikus mozgatórugója, de a mesterséges intelligencia termékek használatához vagy jellemzőihez kapcsolódó kockázatok nem függnek attól, hogy milyen licenc alapján adták át azokat. Ugyanakkor a feljegyzés leszögezi, hogy a nagy kockázatú mesterséges intelligencia rendszerek és a nagy hatású alapmodellek - vagy ahogy most nevezik, a rendszerkockázatot jelentő általános célú mesterséges intelligencia modellek - továbbra is a rendelet hatálya alá tartoznak. A tagállamokat megkérdezik, hogy el tudják-e fogadni ezt a megközelítést. Még nem világos, hogy az elnökség elfogadja-e az EU Parlament megbízását, amely hasonlóképpen kizárta a rendelet hatálya alól az ingyenes és nyílt forráskódú licencekkel biztosított MI-összetevőket, kivéve a nagy kockázatú felhasználásokat és az alapmodelleket.