SG.hu
A világ egyáltalán nincs felkészülve az MI-videók áradatára
A videógeneráló alkalmazások emberek millióit tévesztik meg, azokat sokan valódinak hiszik, még akkor is, ha figyelmeztető címkéket tartalmaznak. Az OpenAI Sora alkalmazásával és más szoftverekkel készített anyagok megmutatják, milyen könnyen manipulálható a közvélekedés olyan eszközökkel, amelyek néhány egyszerű utasítással alternatív valóságot képesek előállítani.
A Sora megjelenése óta eltelt két hónapban megtévesztő videók árasztották el a TikTokot, az X-et, a YouTube-ot, a Facebookot és az Instagramot. Ez az áradat új aggodalmakat váltott ki a dezinformáció és az áltartalom új generációjával kapcsolatban. A legtöbb nagy közösségi médiaplatformnak vannak olyan szabályai, amelyek megkövetelik a mesterséges intelligencia használatának feltüntetését, és általánosságban tiltják a megtévesztési céllal készült tartalmakat. Ám ezek a korlátok szánalmasan elégtelennek bizonyultak azokhoz az ugrásszerű technológiai fejlődésekhez képest, amelyeket az OpenAI eszközei képviselnek.
Miközben sok videó csupán mókás mém vagy aranyos, de hamis babák és háziállatok képe, mások kifejezetten olyan indulatokat próbálnak felszítani, amelyek gyakran jellemzik az online politikai vitákat. Az ilyen anyagok már most szerepeltek külföldi befolyásoló műveletekben, például Oroszország Ukrajnát lejárató kampányában vagy a magyar állampárt kommunikációjában. A megtévesztő felhasználásokat nyomon követő kutatók szerint most már a vállalatokon a sor, hogy többet tegyenek annak érdekében, hogy az emberek tudják, mi valós és mi nem az.
„Lehetnének jobbak a félrevezető és a téves információkkal kapcsolatos tartalommoderálásban? Igen, nyilvánvalóan nem végzik el a munkájukat” - mondta Sam Gregory, a Witness nevű, a technológia jelentette fenyegetésekre fókuszáló emberi jogi szervezet ügyvezető igazgatója. „Lehetnének jobbak abban, hogy proaktívan keressék az MI-generálta tartalmakat, és ők maguk címkézzék fel ezeket? Erre is igen a válasz.” Eddig a platformok nagyrészt a tartalomkészítőkre támaszkodtak abban, hogy jelezzék: az általuk közzétett tartalom nem valós, de a készítők ezt nem mindig teszik meg. És bár a YouTube, a TikTok és más platformok rendelkeznek olyan módszerekkel, amelyekkel képesek felismerni, hogy egy videót mesterséges intelligencia készített, gyakran mégsem jelölik ezt meg a nézők számára. „Felkészülhettek volna” - mondta Nabiha Syed, a Firefox böngésző mögött álló Mozilla Alapítvány ügyvezető igazgatója.
Az MI eszközök mögött álló cégek azt mondják, igyekeznek egyértelművé tenni a felhasználók számára, hogy mely tartalmakat hozták létre számítógépek, a Sora például egy „Sora” feliratot tesz minden videóra. A Google rivális eszköze, a Veo is jól látható vízjelet helyez az elkészített videókra. Mindkét cég láthatatlan metaadatokat is elhelyez, amelyek számítógéppel olvashatók, és minden hamis tartalom eredetét beazonosíthatóvá teszik. A cél az, hogy tájékoztassák az embereket arról, mi az amit látnak, és hogy digitális jeleket adjanak a platformoknak az automatikus felismeréshez.
Néhány platform használja is ezt a technológiát. A TikTok - feltehetően a meggyőző hamis videók miatti aggodalmakra reagálva - múlt héten bejelentette, hogy szigorítja az MI-használat feltüntetésére vonatkozó szabályait. Új eszközöket is ígért, hogy a felhasználók eldönthessék, mennyi szintetikus - azaz nem valós, hanem generált - tartalmat szeretnének látni. A YouTube a Sora láthatatlan vízjeleit használja annak jelzésére, hogy a videók „módosított vagy szintetikus” tartalmak. „A nézők egyre inkább szeretnék tudni, hogy az általuk látott tartalom módosított vagy szintetikus-e” - mondta Jack Malon, a YouTube szóvivője.
A címkék azonban olykor csak azután jelennek meg, hogy a videókat már több ezren vagy akár több millióan látták. Néha pedig egyáltalán nem jelennek meg. A rosszindulatú felhasználók rájöttek, milyen könnyű kibújni a feltüntetési szabályok alól. Néhányan egyszerűen figyelmen kívül hagyják azokat. Mások úgy manipulálják a videókat, hogy eltávolítsák az azonosító vízjeleket. Nem kell hosszan keresni, és több tucat példát találhatunk olyan Sora-videókra a YouTube-on, amelyek nem kaptak automatikus címkét. Több vállalat is megjelent a piacon azzal, hogy logók és vízjelek eltávolítását kínálja. A videók szerkesztése vagy megosztása pedig gyakran eltünteti az eredetileg beágyazott metaadatokat, amelyek jelezték volna, hogy MI készítette őket. Még amikor a logók láthatók is maradnak, a felhasználók könnyen elsiklanak felettük, amikor gyorsan görgetnek a telefonjukon.
Az álprofilok, köztük külföldi vagy rosszindulatú szereplők által működtetett fiókok nagy szerepet játszanak az ilyen közösségi médiatartalmak terjesztésében és felerősítésében. „Az egyéni éberség nem működik, ha az egész hírfolyamod olyan tartalom, amelyre fokozott figyelemmel kell reagálnod. Ennek semmi köze ahhoz, ahogyan valójában kommunikálunk és fogyasztjuk a tartalmainkat.” - mondta Gregory.
A Meta - amely a Facebookot és az Instagramot birtokolja - szóvivője szerint nem mindig lehetséges minden MI-generálta videót felcímkézni, különösen úgy, hogy a technológia gyorsan fejlődik. A cég közleménye szerint dolgozik azon, hogy javítsa a tartalmak címkézésére szolgáló rendszereit. Az OpenAI közleményében azt írta, hogy tiltja a Sora megtévesztő vagy félrevezető használatát, és fellép a szabályszegőkkel szemben. A cég szerint az alkalmazása csak egy a sok hasonló eszköz közül, amelyek egyre élethűbb videókat képesek készíteni, s amelyek közül sok egyáltalán nem alkalmaz semmilyen védelmet vagy korlátozást. „A mesterséges intelligenciával generált videók számos különböző eszközzel készülnek és terjednek, így a megtévesztő tartalmak kezelése ökoszisztéma-szintű erőfeszítést igényel” - közölte a vállalat.
Alon Yamin, a Copyleaks nevű, MI-tartalmak felismerésére specializálódott vállalat vezérigazgatója szerint a közösségi médiaplatformoknak semmilyen pénzügyi érdekük nem fűződik ahhoz, hogy korlátozzák ezeknek a videóknak a terjedését, amíg a felhasználók rájuk kattintanak. „Hosszú távon, ha a platformod tartalmának 90 százaléka MI-generálta lesz, akkor felmerülnek bizonyos kérdések a platform minőségéről és a tartalom értékéről” - mondta Yamin. „Így talán hosszabb távon már valóban lesz anyagi ösztönző a mesterséges intelligencia által generált tartalmak moderálására. De rövid távon ez nem elsődleges prioritás.”
A valósághű videók megjelenése áldás lett a dezinformáció, a csalások és a külföldi befolyásolási műveletek számára. Sora-videók már szerepeltek az utóbbi időben orosz dezinformációs kampányokban a TikTokon és az X-en. Egy videóban - amelyen durván elmaszatolták a vízjelet - az ukrán politikai vezetés körül kibontakozó korrupciós botrányt igyekeztek kihasználni. Mások a fronton szolgáló katonákról kreáltak hamis videókat, amelyeken sírnak.
A korábban a külföldi befolyásolási műveletekkel foglalkozó, mára feloszlatott amerikai külügyminisztériumi hivatal két volt tisztviselője, James P. Rubin és Darjan Vujica a Foreign Affairsben publikált cikkükben amellett érveltek, hogy a mesterséges intelligencia fejlődése felerősítette a demokratikus országok aláásására és a társadalmak megosztására irányuló törekvéseket. Példaként MI-videókat említettek Indiából, amelyek muszlimokat gyaláztak, és vallási feszültségeket szítottak. Egy friss TikTok-videó például azt a látszatot keltette, hogy egy férfi csatornavíz felhasználásával készít rizst az utcán. Bár a videón rajta volt a Sora vízjele, és a készítő feltüntette, hogy MI-vel készült, a felvételt széles körben megosztották az X-en és a Facebookon, olyan fiókok által terjesztve, amelyek úgy kommentelték, mintha valós lenne. „Ezek az eszközök jelenleg is, és ezután is egyre rosszabbá fogják tenni a helyzetet” - mondta Vujica, utalva az MI-vel készült videók új generációjára. „A deepfake-ek dezinformációs célú felhasználásának akadálya összeomlott, és ha a dezinformáció egyszer elterjedt, nagyon nehéz helyreállítani a valóságot.”
A Sora megjelenése óta eltelt két hónapban megtévesztő videók árasztották el a TikTokot, az X-et, a YouTube-ot, a Facebookot és az Instagramot. Ez az áradat új aggodalmakat váltott ki a dezinformáció és az áltartalom új generációjával kapcsolatban. A legtöbb nagy közösségi médiaplatformnak vannak olyan szabályai, amelyek megkövetelik a mesterséges intelligencia használatának feltüntetését, és általánosságban tiltják a megtévesztési céllal készült tartalmakat. Ám ezek a korlátok szánalmasan elégtelennek bizonyultak azokhoz az ugrásszerű technológiai fejlődésekhez képest, amelyeket az OpenAI eszközei képviselnek.
Miközben sok videó csupán mókás mém vagy aranyos, de hamis babák és háziállatok képe, mások kifejezetten olyan indulatokat próbálnak felszítani, amelyek gyakran jellemzik az online politikai vitákat. Az ilyen anyagok már most szerepeltek külföldi befolyásoló műveletekben, például Oroszország Ukrajnát lejárató kampányában vagy a magyar állampárt kommunikációjában. A megtévesztő felhasználásokat nyomon követő kutatók szerint most már a vállalatokon a sor, hogy többet tegyenek annak érdekében, hogy az emberek tudják, mi valós és mi nem az.
„Lehetnének jobbak a félrevezető és a téves információkkal kapcsolatos tartalommoderálásban? Igen, nyilvánvalóan nem végzik el a munkájukat” - mondta Sam Gregory, a Witness nevű, a technológia jelentette fenyegetésekre fókuszáló emberi jogi szervezet ügyvezető igazgatója. „Lehetnének jobbak abban, hogy proaktívan keressék az MI-generálta tartalmakat, és ők maguk címkézzék fel ezeket? Erre is igen a válasz.” Eddig a platformok nagyrészt a tartalomkészítőkre támaszkodtak abban, hogy jelezzék: az általuk közzétett tartalom nem valós, de a készítők ezt nem mindig teszik meg. És bár a YouTube, a TikTok és más platformok rendelkeznek olyan módszerekkel, amelyekkel képesek felismerni, hogy egy videót mesterséges intelligencia készített, gyakran mégsem jelölik ezt meg a nézők számára. „Felkészülhettek volna” - mondta Nabiha Syed, a Firefox böngésző mögött álló Mozilla Alapítvány ügyvezető igazgatója.
Az MI eszközök mögött álló cégek azt mondják, igyekeznek egyértelművé tenni a felhasználók számára, hogy mely tartalmakat hozták létre számítógépek, a Sora például egy „Sora” feliratot tesz minden videóra. A Google rivális eszköze, a Veo is jól látható vízjelet helyez az elkészített videókra. Mindkét cég láthatatlan metaadatokat is elhelyez, amelyek számítógéppel olvashatók, és minden hamis tartalom eredetét beazonosíthatóvá teszik. A cél az, hogy tájékoztassák az embereket arról, mi az amit látnak, és hogy digitális jeleket adjanak a platformoknak az automatikus felismeréshez.
Néhány platform használja is ezt a technológiát. A TikTok - feltehetően a meggyőző hamis videók miatti aggodalmakra reagálva - múlt héten bejelentette, hogy szigorítja az MI-használat feltüntetésére vonatkozó szabályait. Új eszközöket is ígért, hogy a felhasználók eldönthessék, mennyi szintetikus - azaz nem valós, hanem generált - tartalmat szeretnének látni. A YouTube a Sora láthatatlan vízjeleit használja annak jelzésére, hogy a videók „módosított vagy szintetikus” tartalmak. „A nézők egyre inkább szeretnék tudni, hogy az általuk látott tartalom módosított vagy szintetikus-e” - mondta Jack Malon, a YouTube szóvivője.
A címkék azonban olykor csak azután jelennek meg, hogy a videókat már több ezren vagy akár több millióan látták. Néha pedig egyáltalán nem jelennek meg. A rosszindulatú felhasználók rájöttek, milyen könnyű kibújni a feltüntetési szabályok alól. Néhányan egyszerűen figyelmen kívül hagyják azokat. Mások úgy manipulálják a videókat, hogy eltávolítsák az azonosító vízjeleket. Nem kell hosszan keresni, és több tucat példát találhatunk olyan Sora-videókra a YouTube-on, amelyek nem kaptak automatikus címkét. Több vállalat is megjelent a piacon azzal, hogy logók és vízjelek eltávolítását kínálja. A videók szerkesztése vagy megosztása pedig gyakran eltünteti az eredetileg beágyazott metaadatokat, amelyek jelezték volna, hogy MI készítette őket. Még amikor a logók láthatók is maradnak, a felhasználók könnyen elsiklanak felettük, amikor gyorsan görgetnek a telefonjukon.
Az álprofilok, köztük külföldi vagy rosszindulatú szereplők által működtetett fiókok nagy szerepet játszanak az ilyen közösségi médiatartalmak terjesztésében és felerősítésében. „Az egyéni éberség nem működik, ha az egész hírfolyamod olyan tartalom, amelyre fokozott figyelemmel kell reagálnod. Ennek semmi köze ahhoz, ahogyan valójában kommunikálunk és fogyasztjuk a tartalmainkat.” - mondta Gregory.
A Meta - amely a Facebookot és az Instagramot birtokolja - szóvivője szerint nem mindig lehetséges minden MI-generálta videót felcímkézni, különösen úgy, hogy a technológia gyorsan fejlődik. A cég közleménye szerint dolgozik azon, hogy javítsa a tartalmak címkézésére szolgáló rendszereit. Az OpenAI közleményében azt írta, hogy tiltja a Sora megtévesztő vagy félrevezető használatát, és fellép a szabályszegőkkel szemben. A cég szerint az alkalmazása csak egy a sok hasonló eszköz közül, amelyek egyre élethűbb videókat képesek készíteni, s amelyek közül sok egyáltalán nem alkalmaz semmilyen védelmet vagy korlátozást. „A mesterséges intelligenciával generált videók számos különböző eszközzel készülnek és terjednek, így a megtévesztő tartalmak kezelése ökoszisztéma-szintű erőfeszítést igényel” - közölte a vállalat.
Alon Yamin, a Copyleaks nevű, MI-tartalmak felismerésére specializálódott vállalat vezérigazgatója szerint a közösségi médiaplatformoknak semmilyen pénzügyi érdekük nem fűződik ahhoz, hogy korlátozzák ezeknek a videóknak a terjedését, amíg a felhasználók rájuk kattintanak. „Hosszú távon, ha a platformod tartalmának 90 százaléka MI-generálta lesz, akkor felmerülnek bizonyos kérdések a platform minőségéről és a tartalom értékéről” - mondta Yamin. „Így talán hosszabb távon már valóban lesz anyagi ösztönző a mesterséges intelligencia által generált tartalmak moderálására. De rövid távon ez nem elsődleges prioritás.”
A valósághű videók megjelenése áldás lett a dezinformáció, a csalások és a külföldi befolyásolási műveletek számára. Sora-videók már szerepeltek az utóbbi időben orosz dezinformációs kampányokban a TikTokon és az X-en. Egy videóban - amelyen durván elmaszatolták a vízjelet - az ukrán politikai vezetés körül kibontakozó korrupciós botrányt igyekeztek kihasználni. Mások a fronton szolgáló katonákról kreáltak hamis videókat, amelyeken sírnak.
A korábban a külföldi befolyásolási műveletekkel foglalkozó, mára feloszlatott amerikai külügyminisztériumi hivatal két volt tisztviselője, James P. Rubin és Darjan Vujica a Foreign Affairsben publikált cikkükben amellett érveltek, hogy a mesterséges intelligencia fejlődése felerősítette a demokratikus országok aláásására és a társadalmak megosztására irányuló törekvéseket. Példaként MI-videókat említettek Indiából, amelyek muszlimokat gyaláztak, és vallási feszültségeket szítottak. Egy friss TikTok-videó például azt a látszatot keltette, hogy egy férfi csatornavíz felhasználásával készít rizst az utcán. Bár a videón rajta volt a Sora vízjele, és a készítő feltüntette, hogy MI-vel készült, a felvételt széles körben megosztották az X-en és a Facebookon, olyan fiókok által terjesztve, amelyek úgy kommentelték, mintha valós lenne. „Ezek az eszközök jelenleg is, és ezután is egyre rosszabbá fogják tenni a helyzetet” - mondta Vujica, utalva az MI-vel készült videók új generációjára. „A deepfake-ek dezinformációs célú felhasználásának akadálya összeomlott, és ha a dezinformáció egyszer elterjedt, nagyon nehéz helyreállítani a valóságot.”