SG.hu
Az EU-nak fogalma sincs, mit kezdjen a ChatGPT-vel
Az Európai Uniónak legalább még egy évre lesz szüksége, hogy kitalálja, hogyan alkalmazza digitális jogszabályait a ChatGPT kockázatainak visszaszorítására. Éles kontraszt van a szabályozó hatóságok lassúsága és az MI-botok robbanásszerű terjedése között.
A mesterséges intelligencia chatbotok használata Európában is terjed, és az OpenAI ebben a hónapban bejelentette, hogy átlépte a szabályozói ellenőrzés fontos küszöbét. Az a hír, hogy havonta több mint 120 millió ember használja a ChatGPT keresőfunkcióját, nem volt meglepetés az Európai Bizottság számára, a szabályozók azonban még nem tudják, hogyan kezeljék a ChatGPT-t az EU 2024 eleje óta hatályos digitális szolgáltatásokról szóló törvénye tekintetében, azaz hogy biztosítsák a platform kockázatainak minimalizálását. Egy magas rangú bizottsági tisztviselő szerint a döntés csak 2026 közepén várható.
Ez az első teszt az EU azon képességére nézve, hogy kezelje a nagy nyelvi modellek által jelentett kockázatokat, amelyek gyorsan ugyanolyan elterjedtté válnak az emberek életében, mint a hagyományos keresőmotorok. A lassúság azt tükrözi, hogy a kiemelt digitális törvényt még a ChatGPT mainstreammé válása előtt tervezték, és definíciói nem fedik le egyértelműen az MI-alapú csevegőrobotokat. Brüsszel kockázatot vállal azzal, hogy lemarad ezeknek a kockázatoknak a kezelésében, még akkor is, ha azok egyre élesebbé válnak. Az OpenAI nemrég elismerte, hogy hetente 1,2 millió ember folytat olyan beszélgetéseket a ChatGPT-vel, amelyek arra utalnak, hogy öngyilkosságot terveznek, és hogy „néhány ritka esetben a modell nem feltétlenül viselkedik a várt módon ezekben az érzékeny helyzetekben”.
"Egy olyan iparág számára, amely hozzászokott az önkéntes MI-biztonsági keretrendszerekhez és önmaguk által meghatározott referenciaértékekhez, a DSA jogilag kötelező érvényű átvilágítási rendszere kemény valóság-ellenőrzés lehet” - mondta Mathias Vermeulen, a brüsszeli ügyvédi iroda és tanácsadó cég, az AWO Agency igazgatója. „Az OpenAI-nak jelentősen fel kell majd kötnie a gatyáját, és nem úszhatja meg azzal, hogy egyszerűen csak folytatja azt, amit jelenleg csinál” - mondta. A vállalat nem reagált a kritikára, hanem online súgójára hivatkozott, ahol információk találhatók arról, hogy a vállalat hogyan felel meg a DSA előírásainak. Emellett megjegyezte, hogy a 120 milliós szám a ChatGPT keresési funkcióit használó emberekre vonatkozik, és nem az egész szolgáltatásra.
A ChatGPT már az EU mesterséges intelligencia törvényének hatálya alá tartozik. Augusztustól kockázatokat kell értékelnie és csökkentenie, és ha nem felel meg a követelményeknek, akár 15 millió eurós bírság is kiszabható rá. A felhasználói adatok azonban most a chatbotot a nagyok ligájába emelik, jóval meghaladva a DSA szerinti nagy platformok és keresőmotorok 45 millió havi felhasználói küszöbértékét. Ha a DSA hatálya alá kerül, akkor éves globális forgalmának akár 6 százalékát kitevő bírság is kiszabható rá.
A ChatGPT-t a DSA nem „előre látta”, de „megfelel a törvény szövegének” - mondta Martin Husovec, a London School of Economics jogprofesszora. A törvény szerkezete szerint az EU a webhelyeket vagy nagyon nagy online platformoknak és keresőmotoroknak - úgynevezett VLOP-oknak vagy VLOE-knek - minősíti, amelyeknek a legszigorúbb szabályoknak kell megfelelniük. A legfontosabb kérdés a ChatGPT besorolásának hatálya - mondta Joris Van Hoboken, a Vrije Universiteit Brussels mesterséges intelligenciával foglalkozó jogprofesszora. A Bizottság szűkítheti a ChatGPT keresési funkcióira, hogy keresőmotorként sorolja be, vagy kiterjesztheti az egész kínálatra - akár platformként, akár szolgáltatásként. Az OpenAI-ra vonatkozó követelmények és azok teljesítésének módja nagyban függ a Bizottság döntésétől.
Az OpenAI-nak meg kell állapítania, hogy chatbotja milyen komoly kockázatokat jelent, például a választásokra és a közegészségre nézve. Ezeket a kockázatokat csökkentenie kell, és erről egy részletes megfelelőségi jelentésben tájékoztatnia kell a Bizottságot. Minél tágabb a kijelölés, annál terjedelmesebbnek kell lennie a jelentésnek. Ezek a kockázatértékelések magukban foglalják „ajánló rendszereik és bármely más releváns algoritmikus rendszerük tervezését” a DSA törvény szerint.
Ez nehéznek bizonyulhat, ha a Bizottság a ChatGPT válaszai alapját képező nagy nyelvi modellt veszi célba, ahelyett, hogy szűkebb körben a felhasználóknak nyújtott keresési tartalmakra koncentrálna. A szűkebb meghatározás megkímélhetné az OpenAI-t egy kötelezettségtől: keresőmotorként nem kellene biztosítania olyan értesítési és intézkedési mechanizmust, amely lehetővé teszi a felhasználók számára a tartalom eltávolítását. Ha a kijelölésre 2026 közepén kerül sor, az azt jelenti, hogy a DSA követelményei az OpenAI-ra a jövő év utolsó negyedévében vonatkoznának. Az OpenAI vitathatja a kijelölést, de ezzel a stratégiával más platformok már elbuktak korábban. Bármilyen nézeteltérés tovább hosszabbítaná a folyamatot.
Fontos kérdések maradnak azzal kapcsolatban, hogy a két fő, az MI-t és a platformokat szabályozó törvény hogyan fedi egymást. Az MI-törvény és a DSA úgy lett kialakítva, hogy egymás mellett létezzenek azokban az esetekben, amikor az MI be van építve a digitális szolgáltatásokba, mint például a Google áttekintései, mondta Joao Pedro Quintais, az Amszterdami Egyetem jogi adjunktusa.. Nem úgy tervezték őket, hogy figyelembe vegyék az úgynevezett vertikálisan integrált MI-szolgáltatókat, mint az OpenAI.
A két törvény két különböző kockázati keretrendszeren alapul. A platformoknak fel kell mérniük, hogy melyik kockázati kategóriába tartoznak, és szolgáltatásukat ennek megfelelően kell módosítaniuk. Ezek a kockázati keretrendszerek nem teljesen egyeznek meg egymással; az MI-törvény szerint a modelleket elfogadhatatlannak, magas, korlátozott, minimális vagy kockázatmentesnek kell minősíteni. A platformoknak és a keresőmotoroknak négyféle „rendszerkockázatot” kell meghatározniuk és enyhíteniük, például a polgári integritás, a választások, a közegészségügy és az alapvető jogok terén.
Az MI-törvény szerint a VLOPSE-kbe integrált funkciók - például a Google MI összefoglalói - akkor felelnek meg az MI-szabályoknak, ha DSA-értékelést nyújtanak be. Ez azt jelenti, hogy a szabályozás egyes aspektusait - például a dezinformációt és a deepfake-eket - „átveszi a DSA”, míg más kockázatok, például a ChatGPT használata a munkaerő-felvételi folyamatokban, az MI-törvény hatálya alá tartoznak. Quintais szerint hiányosságok lehetnek abban, ahogyan a vállalat értékeli szolgáltatásai kockázatát, mert a két keretrendszer nem teljesen egyezik meg. A vállalatok emellett az úgynevezett „biztonságos kikötő” törvények előnyeit is kihasználhatják, amelyek értelmében a platformok és a keresőmotorok nem felelnek a rajtuk közzétett tartalmakért - tette hozzá.
A mesterséges intelligencia chatbotok használata Európában is terjed, és az OpenAI ebben a hónapban bejelentette, hogy átlépte a szabályozói ellenőrzés fontos küszöbét. Az a hír, hogy havonta több mint 120 millió ember használja a ChatGPT keresőfunkcióját, nem volt meglepetés az Európai Bizottság számára, a szabályozók azonban még nem tudják, hogyan kezeljék a ChatGPT-t az EU 2024 eleje óta hatályos digitális szolgáltatásokról szóló törvénye tekintetében, azaz hogy biztosítsák a platform kockázatainak minimalizálását. Egy magas rangú bizottsági tisztviselő szerint a döntés csak 2026 közepén várható.
Ez az első teszt az EU azon képességére nézve, hogy kezelje a nagy nyelvi modellek által jelentett kockázatokat, amelyek gyorsan ugyanolyan elterjedtté válnak az emberek életében, mint a hagyományos keresőmotorok. A lassúság azt tükrözi, hogy a kiemelt digitális törvényt még a ChatGPT mainstreammé válása előtt tervezték, és definíciói nem fedik le egyértelműen az MI-alapú csevegőrobotokat. Brüsszel kockázatot vállal azzal, hogy lemarad ezeknek a kockázatoknak a kezelésében, még akkor is, ha azok egyre élesebbé válnak. Az OpenAI nemrég elismerte, hogy hetente 1,2 millió ember folytat olyan beszélgetéseket a ChatGPT-vel, amelyek arra utalnak, hogy öngyilkosságot terveznek, és hogy „néhány ritka esetben a modell nem feltétlenül viselkedik a várt módon ezekben az érzékeny helyzetekben”.
"Egy olyan iparág számára, amely hozzászokott az önkéntes MI-biztonsági keretrendszerekhez és önmaguk által meghatározott referenciaértékekhez, a DSA jogilag kötelező érvényű átvilágítási rendszere kemény valóság-ellenőrzés lehet” - mondta Mathias Vermeulen, a brüsszeli ügyvédi iroda és tanácsadó cég, az AWO Agency igazgatója. „Az OpenAI-nak jelentősen fel kell majd kötnie a gatyáját, és nem úszhatja meg azzal, hogy egyszerűen csak folytatja azt, amit jelenleg csinál” - mondta. A vállalat nem reagált a kritikára, hanem online súgójára hivatkozott, ahol információk találhatók arról, hogy a vállalat hogyan felel meg a DSA előírásainak. Emellett megjegyezte, hogy a 120 milliós szám a ChatGPT keresési funkcióit használó emberekre vonatkozik, és nem az egész szolgáltatásra.
A ChatGPT már az EU mesterséges intelligencia törvényének hatálya alá tartozik. Augusztustól kockázatokat kell értékelnie és csökkentenie, és ha nem felel meg a követelményeknek, akár 15 millió eurós bírság is kiszabható rá. A felhasználói adatok azonban most a chatbotot a nagyok ligájába emelik, jóval meghaladva a DSA szerinti nagy platformok és keresőmotorok 45 millió havi felhasználói küszöbértékét. Ha a DSA hatálya alá kerül, akkor éves globális forgalmának akár 6 százalékát kitevő bírság is kiszabható rá.
A ChatGPT-t a DSA nem „előre látta”, de „megfelel a törvény szövegének” - mondta Martin Husovec, a London School of Economics jogprofesszora. A törvény szerkezete szerint az EU a webhelyeket vagy nagyon nagy online platformoknak és keresőmotoroknak - úgynevezett VLOP-oknak vagy VLOE-knek - minősíti, amelyeknek a legszigorúbb szabályoknak kell megfelelniük. A legfontosabb kérdés a ChatGPT besorolásának hatálya - mondta Joris Van Hoboken, a Vrije Universiteit Brussels mesterséges intelligenciával foglalkozó jogprofesszora. A Bizottság szűkítheti a ChatGPT keresési funkcióira, hogy keresőmotorként sorolja be, vagy kiterjesztheti az egész kínálatra - akár platformként, akár szolgáltatásként. Az OpenAI-ra vonatkozó követelmények és azok teljesítésének módja nagyban függ a Bizottság döntésétől.
Az OpenAI-nak meg kell állapítania, hogy chatbotja milyen komoly kockázatokat jelent, például a választásokra és a közegészségre nézve. Ezeket a kockázatokat csökkentenie kell, és erről egy részletes megfelelőségi jelentésben tájékoztatnia kell a Bizottságot. Minél tágabb a kijelölés, annál terjedelmesebbnek kell lennie a jelentésnek. Ezek a kockázatértékelések magukban foglalják „ajánló rendszereik és bármely más releváns algoritmikus rendszerük tervezését” a DSA törvény szerint.
Ez nehéznek bizonyulhat, ha a Bizottság a ChatGPT válaszai alapját képező nagy nyelvi modellt veszi célba, ahelyett, hogy szűkebb körben a felhasználóknak nyújtott keresési tartalmakra koncentrálna. A szűkebb meghatározás megkímélhetné az OpenAI-t egy kötelezettségtől: keresőmotorként nem kellene biztosítania olyan értesítési és intézkedési mechanizmust, amely lehetővé teszi a felhasználók számára a tartalom eltávolítását. Ha a kijelölésre 2026 közepén kerül sor, az azt jelenti, hogy a DSA követelményei az OpenAI-ra a jövő év utolsó negyedévében vonatkoznának. Az OpenAI vitathatja a kijelölést, de ezzel a stratégiával más platformok már elbuktak korábban. Bármilyen nézeteltérés tovább hosszabbítaná a folyamatot.
Fontos kérdések maradnak azzal kapcsolatban, hogy a két fő, az MI-t és a platformokat szabályozó törvény hogyan fedi egymást. Az MI-törvény és a DSA úgy lett kialakítva, hogy egymás mellett létezzenek azokban az esetekben, amikor az MI be van építve a digitális szolgáltatásokba, mint például a Google áttekintései, mondta Joao Pedro Quintais, az Amszterdami Egyetem jogi adjunktusa.. Nem úgy tervezték őket, hogy figyelembe vegyék az úgynevezett vertikálisan integrált MI-szolgáltatókat, mint az OpenAI.
A két törvény két különböző kockázati keretrendszeren alapul. A platformoknak fel kell mérniük, hogy melyik kockázati kategóriába tartoznak, és szolgáltatásukat ennek megfelelően kell módosítaniuk. Ezek a kockázati keretrendszerek nem teljesen egyeznek meg egymással; az MI-törvény szerint a modelleket elfogadhatatlannak, magas, korlátozott, minimális vagy kockázatmentesnek kell minősíteni. A platformoknak és a keresőmotoroknak négyféle „rendszerkockázatot” kell meghatározniuk és enyhíteniük, például a polgári integritás, a választások, a közegészségügy és az alapvető jogok terén.
Az MI-törvény szerint a VLOPSE-kbe integrált funkciók - például a Google MI összefoglalói - akkor felelnek meg az MI-szabályoknak, ha DSA-értékelést nyújtanak be. Ez azt jelenti, hogy a szabályozás egyes aspektusait - például a dezinformációt és a deepfake-eket - „átveszi a DSA”, míg más kockázatok, például a ChatGPT használata a munkaerő-felvételi folyamatokban, az MI-törvény hatálya alá tartoznak. Quintais szerint hiányosságok lehetnek abban, ahogyan a vállalat értékeli szolgáltatásai kockázatát, mert a két keretrendszer nem teljesen egyezik meg. A vállalatok emellett az úgynevezett „biztonságos kikötő” törvények előnyeit is kihasználhatják, amelyek értelmében a platformok és a keresőmotorok nem felelnek a rajtuk közzétett tartalmakért - tette hozzá.