SG.hu
Mit lehet kezdeni egy számítógép generálta pedofil képpel?
A mesterséges intelligencia forradalma a gyermekek szexuális kizsákmányolását bemutató nyugtalanítóan élethű képek robbanásszerű megjelenését váltotta ki. A gyermekvédelmi nyomozók szerint ezek aláássák az áldozatok felkutatására és a valós visszaélések elleni küzdelemre irányuló erőfeszítéseket.
A generatív MI-eszközök másodpercek alatt képesek valósághű képeket létrehozni szexuális aktusokat végző gyermekekről. A gyermekpornográfiát szinte a világon mindenhol több éves börtönnel büntetik, és a Washington Post riportja szerint a technika "ragadozói fegyverkezési versenyt" indított el a pedofil fórumokon. Egyes résztvevők részletes útmutatókat osztottak meg arról, hogy más pedofilok hogyan készíthetik el saját alkotásaikat. "Az ismert áldozatokról készült tartalmakat újrahasznosítják ehhez az igazán gonosz kimenethez" - mondta a lapnak Rebecca Portnoff, egy nonprofit gyermekbiztonsági csoport adattudományi igazgatója, aki tavaly ősz óta folyamatos növekedést tapasztalt a képek elterjedtségében. "Az áldozatok azonosítása, amikor a bűnüldöző szervek megpróbálják megtalálni a veszélyben lévő gyermeket már most is tű keresésével ér fel egy szénakazalban." - mondta. "Az ilyen eszközök használatának egyszerűsége jelentős változást jelent, ez még nagyobb kihívássá vált."
A képek áradata megzavarja azokat az algoritmusokat, amelyeket azért építettek ki, hogy megakadályozzák az ilyen anyagok világhálón való terjedését. A rendszer csak az ismert visszaélésekről készült képeket képes megfogni, az újonnan létrehozottakat nem. Azzal is fenyeget, hogy túlterheli a bűnüldöző hatóságokat, akik az áldozattá vált gyermekek azonosításán dolgoznak, és kénytelenek lesznek annak megállapításával tölteni az idejüket, hogy a képek valódiak-e vagy hamisak. A képek arról is vitát váltottak ki, hogy egyáltalán sértik-e a gyermekvédelmi törvényeket, mivel gyakran olyan gyermekeket ábrázolnak, akik nem is léteznek. A gyermekkizsákmányolás ellen küzdő amerikai igazságügyi minisztériumi tisztviselők szerint az ilyen képek még akkor is illegálisak, ha az ábrázolt gyermek mesterséges intelligencia által generált, de nem tudtak olyan esetet említeni, amelyben gyanúsítottat vád alá helyeztek volna egy ilyen kép elkészítéséért.
Az új mesterséges intelligencia-eszközök, az úgynevezett diffúziós modellek lehetővé teszik, hogy bárki meggyőző képet hozzon létre pusztán egy rövid leírás beírásával arról, hogy mit szeretne látni. Az olyan modelleket, mint a DALL-E, a Midjourney vagy a Stable Diffusion az internetről származó képek milliárdjaival táplálták, amelyek közül sok valódi gyermeket ábrázolt, és fotóoldalakról vagy személyes blogokról származott. Ezeket a vizuális mintákat utánozva hozhatók létre saját képek. Pár hónapja ezeket az eszközöket vizuális leleményességükért ünnepelték, de ma már képzőművészeti versenyek megnyerésére, könyvek illusztrálására, hamis hírfotók készítésére, valamint felnőttnek látszó, nem létező emberekből álló szintetikus pornográfia létrehozására használják.
A Balenciaga kabátot viselő pápa óta mindenki tudja, hogy bármi létrehozható
Ugyanakkor megnőtt annak sebessége és mértéke is, amellyel a pedofilok új, explicit képeket tudnak létrehozni. A fejlett eszközök kevesebb műszaki szaktudást igényelnek, mint a korábbi módszerek, például a gyermekarcok felnőtt testekre való ráhelyezése, és egyetlen paranccsal rengeteg képet létre lehet hozni. A pedofil fórumokon nem mindig derül ki, hogyan készültek az MI által generált képek, de a gyermekbiztonsági szakértők szerint sokan olyan nyílt forráskódú eszközökre támaszkodnak - például a Stable Diffusionra -, amely korlátlanul és ellenőrizetlenül futtatható.
A Stable Diffusiont futtató Stability AI leszögezte, hogy tiltja a gyermekek szexuális zaklatásáról készült képek létrehozását, és segíti a bűnüldöző szervek nyomozását az "illegális vagy rosszindulatú" felhasználások ügyében. Az ilyen anyagokat eltávolította a tréningezésre használt adatokból, csökkentve a "rosszindulatú felhasználók lehetőségét arra, hogy obszcén tartalmakat hozzanak létre". Az eszközt azonban bárki letöltheti a számítógépére, és úgy futtathatja, ahogy akarja, nagyrészt kikerülve a vállalati szabályokat és felügyeletet. Az eszköz nyílt forráskódú licencében arra kéri a felhasználókat, hogy ne használják "kiskorúak kihasználására vagy károsítására semmilyen módon", de az alapjául szolgáló biztonsági funkciók, köztük a képek szűrője könnyen megkerülhető néhány sor kóddal, amelyet a felhasználó hozzáadhat a programhoz.
A vállalat megvédte nyílt forráskódú megközelítését, mivel az fontos a felhasználók kreatív szabadsága szempontjából. A Stability AI vezérigazgatója, Emad Mostaque szerint "végső soron az emberek felelőssége, hogy etikus, erkölcsös és legális módon működtetik-e ezt a technológiát", hozzátéve, hogy "a rossz dolgok, amelyeket az emberek létrehoznak a teljes felhasználásnak csak nagyon-nagyon kis százalékát teszik ki". A Stable Diffusion fő versenytársai, a Dall-E és a Midjourney tiltják a szexuális tartalmakat, és nem biztosítanak nyílt forráskódot, ami azt jelenti, hogy használatuk a cég által üzemeltetett csatornákra korlátozódik, és minden képet rögzítenek és nyomon követnek.
Az OpenAI - a Dall-E és a ChatGPT mögött álló San Francisco-i kutatólaboratórium - embereket alkalmaz a szabályok betartatására - beleértve a gyermekek szexuális zaklatását tartalmazó anyagok tiltását - és eltávolította az ilyen tartalmakat a képgenerátor képzési adataiból, hogy minimalizálja "az ilyen fogalmaknak való kitettséget" - mondta a szóvivőjük. "Nyilvánvaló, hogy a magáncégek nem akarnak részesei lenni az interneten található legrosszabb típusú tartalmak létrehozásának" - mondta Kate Klonick, a St. John's Egyetem jogászprofesszora. "De ami engem a legjobban megrémít, az ezeknek az eszközöknek a nyílt hozzáférhetősége. Lehetnek olyan magánszemélyek vagy szervezetek, akik ezeket használják, és egyszerűen eltűnhetnek. Nincs egyszerű, összehangolt módja annak, hogy az ilyen bűnös szereplőket lekapcsoljuk."
Midjourney által generált kép gyerekekről - a szöveg és a kéz nem stimmel
A sötét webes pedofil fórumokon a felhasználók nyíltan beszélgetnek a fotók készítésének és a pornóellenes szűrők kijátszásának stratégiáiról, többek között azáltal, hogy nem angol nyelvet használnak, és így úgy gondolják, hogy kevésbé felderíthető a tevékenységük. "Az egyik 3000 tagot számláló fórumon egy nemrégiben végzett belső felmérés során a válaszadók körülbelül 80 százaléka mondta, hogy használt vagy szándékozik használni mesterséges intelligencia eszközöket a gyermekek szexuális zaklatásáról készült képek létrehozására" - mondta Avi Jager, az ActiveFence gyermekbiztonsági és emberi kizsákmányolással foglalkozó vezetője, aki a közösségi médiával és streaming oldalakkal dolgozik együtt a rosszindulatú tartalmak kiszűrése érdekében.
A fórumtagok megvitatták, hogyan lehetne MI által generált szelfiket készíteni és hamis iskoláskorú személyiséget építeni annak reményében, hogy elnyerjék más gyerekek bizalmát - mondta Jager. Portnoff csoportja olyan eseteket is látott, amelyekben bántalmazott gyermekek valódi fotóit használták fel arra, hogy egy MI eszközt arra képezzenek ki, hogy új képeket hozzon létre, amelyeken a gyermekek szexuális pózokban láthatóak.
A National Center for Missing and Exploited Children egy nonprofit szervezet, amely egy olyan adatbázist működtet, amelyet a vállalatok a gyermekekkel kapcsolatos szexuális tartalmak megjelölésére és blokkolására használnak. Jogászuk, Yiota Souras elmondta, hogy csoportja az elmúlt néhány hónapban az MI által generált képekről szóló jelentések jelentős növekedését tapasztalta, valamint olyan emberekről szóló jelentéseket, akik gyermekek szexuális zaklatásáról készült képeket töltöttek fel az MI-eszközökbe, abban a reményben, hogy azok több és jobb képet generálnak. Bár ez a csoporthoz tavaly beérkezett több mint 32 millió bejelentésnek csak egy kis töredéke, az MI-képek növekvő elterjedtsége és realitása azzal fenyeget, hogy felemésztik a nyomozók idejét és energiáját, akik az áldozattá vált gyermekek azonosításán dolgoznak, és nincs lehetőségük minden bejelentésnek utánajárni - mondta.
Egyes jogi elemzők azzal érvelnek, hogy ezek az anyagok jogi szempontból szürke zónába esnek, mivel a teljesen mesterséges intelligencia által generált képek nem valódi gyermeket ábrázolnak. Az Egyesült Államokban nem bűncselekmény a tinédzserek szexualitásának irodalmi ábrázolása, mivel a vádlottak azt állíthatnák, hogy a képek nem valódi gyermekeket ábrázolnak. Daniel Lyons, a Boston College jogászprofesszora szerint ezt valószínűleg érdemes felülvizsgálni, tekintve, hogy a technológia mennyit fejlődött az elmúlt két évtizedben. "Csökken a szakadék a valóság és a mesterséges intelligencia által generált anyagok között, és ez egy gondolatkísérletből potenciálisan jelentős valós problémává vált."
MI-által generált képek gyerekekről
Néhány csoport technikai módszereken dolgozik a probléma megoldására. Az egyik megoldás, amely kormányzati jóváhagyást igényelne, az lenne, hogy egy mesterséges intelligenciamodellt képeznének ki a hamis gyermekkizsákmányoló képek példáinak létrehozására, hogy az online felderítő rendszerek tudják mit kell eltávolítani - mondta Margaret Mitchell MI-kutató, aki korábban a Google etikus MI-csapatát vezette. De a javaslatnak megvannak a maga ártalmai, tette hozzá, mert ez az anyag "hatalmas pszichológiai költséggel járhat: ez olyan anyag, amire nem lehet nem emlékezni."
Más mesterséges intelligenciával foglalkozó kutatók jelenleg olyan azonosító rendszereken dolgoznak, amelyek a visszaélések megakadályozása érdekében olyan kódot nyomtatnának a képekbe, amely visszavezet a készítőjükhöz. A Marylandi Egyetem kutatói a múlt hónapban publikáltak egy új technikát a "láthatatlan" vízjelek előállítására, amelyek segíthetnek azonosítani egy kép készítőjét, és amelyek eltávolítása kihívást jelentene. "Ezek az ötletek valószínűleg az egész iparág részvételét igényelnék ahhoz, hogy működjenek, és még így sem tudnának minden jogsértést elkapni" - mondta Mitchell. "Építjük a gépet, miközben repülünk vele."
Még ha ezek a képek nem is valódi gyerekeket ábrázolnak, mégis szörnyű társadalmi kárt okoznak. A gyorsan és nagy mennyiségben készített képeket arra használhatják, hogy normalizálják a gyermekek szexualizálását, vagy hogy a visszataszító viselkedést hétköznapinak állítsák be, ugyanúgy, ahogyan a ragadozók valódi képeket használtak arra, hogy a gyermekeket visszaélésre késztessék. "A rendszer 10 millió gyermek fülét nézte meg, és most már tudja, hogyan kell létrehozni egyet" - mondta Souras. "Az a tény, hogy valaki egy délután alatt 100 képet készíthet, és ezeket felhasználhatja arra, hogy egy gyereket ilyen viselkedésre csábítson, hihetetlenül káros."
A generatív MI-eszközök másodpercek alatt képesek valósághű képeket létrehozni szexuális aktusokat végző gyermekekről. A gyermekpornográfiát szinte a világon mindenhol több éves börtönnel büntetik, és a Washington Post riportja szerint a technika "ragadozói fegyverkezési versenyt" indított el a pedofil fórumokon. Egyes résztvevők részletes útmutatókat osztottak meg arról, hogy más pedofilok hogyan készíthetik el saját alkotásaikat. "Az ismert áldozatokról készült tartalmakat újrahasznosítják ehhez az igazán gonosz kimenethez" - mondta a lapnak Rebecca Portnoff, egy nonprofit gyermekbiztonsági csoport adattudományi igazgatója, aki tavaly ősz óta folyamatos növekedést tapasztalt a képek elterjedtségében. "Az áldozatok azonosítása, amikor a bűnüldöző szervek megpróbálják megtalálni a veszélyben lévő gyermeket már most is tű keresésével ér fel egy szénakazalban." - mondta. "Az ilyen eszközök használatának egyszerűsége jelentős változást jelent, ez még nagyobb kihívássá vált."
A képek áradata megzavarja azokat az algoritmusokat, amelyeket azért építettek ki, hogy megakadályozzák az ilyen anyagok világhálón való terjedését. A rendszer csak az ismert visszaélésekről készült képeket képes megfogni, az újonnan létrehozottakat nem. Azzal is fenyeget, hogy túlterheli a bűnüldöző hatóságokat, akik az áldozattá vált gyermekek azonosításán dolgoznak, és kénytelenek lesznek annak megállapításával tölteni az idejüket, hogy a képek valódiak-e vagy hamisak. A képek arról is vitát váltottak ki, hogy egyáltalán sértik-e a gyermekvédelmi törvényeket, mivel gyakran olyan gyermekeket ábrázolnak, akik nem is léteznek. A gyermekkizsákmányolás ellen küzdő amerikai igazságügyi minisztériumi tisztviselők szerint az ilyen képek még akkor is illegálisak, ha az ábrázolt gyermek mesterséges intelligencia által generált, de nem tudtak olyan esetet említeni, amelyben gyanúsítottat vád alá helyeztek volna egy ilyen kép elkészítéséért.
Az új mesterséges intelligencia-eszközök, az úgynevezett diffúziós modellek lehetővé teszik, hogy bárki meggyőző képet hozzon létre pusztán egy rövid leírás beírásával arról, hogy mit szeretne látni. Az olyan modelleket, mint a DALL-E, a Midjourney vagy a Stable Diffusion az internetről származó képek milliárdjaival táplálták, amelyek közül sok valódi gyermeket ábrázolt, és fotóoldalakról vagy személyes blogokról származott. Ezeket a vizuális mintákat utánozva hozhatók létre saját képek. Pár hónapja ezeket az eszközöket vizuális leleményességükért ünnepelték, de ma már képzőművészeti versenyek megnyerésére, könyvek illusztrálására, hamis hírfotók készítésére, valamint felnőttnek látszó, nem létező emberekből álló szintetikus pornográfia létrehozására használják.
A Balenciaga kabátot viselő pápa óta mindenki tudja, hogy bármi létrehozható
Ugyanakkor megnőtt annak sebessége és mértéke is, amellyel a pedofilok új, explicit képeket tudnak létrehozni. A fejlett eszközök kevesebb műszaki szaktudást igényelnek, mint a korábbi módszerek, például a gyermekarcok felnőtt testekre való ráhelyezése, és egyetlen paranccsal rengeteg képet létre lehet hozni. A pedofil fórumokon nem mindig derül ki, hogyan készültek az MI által generált képek, de a gyermekbiztonsági szakértők szerint sokan olyan nyílt forráskódú eszközökre támaszkodnak - például a Stable Diffusionra -, amely korlátlanul és ellenőrizetlenül futtatható.
A Stable Diffusiont futtató Stability AI leszögezte, hogy tiltja a gyermekek szexuális zaklatásáról készült képek létrehozását, és segíti a bűnüldöző szervek nyomozását az "illegális vagy rosszindulatú" felhasználások ügyében. Az ilyen anyagokat eltávolította a tréningezésre használt adatokból, csökkentve a "rosszindulatú felhasználók lehetőségét arra, hogy obszcén tartalmakat hozzanak létre". Az eszközt azonban bárki letöltheti a számítógépére, és úgy futtathatja, ahogy akarja, nagyrészt kikerülve a vállalati szabályokat és felügyeletet. Az eszköz nyílt forráskódú licencében arra kéri a felhasználókat, hogy ne használják "kiskorúak kihasználására vagy károsítására semmilyen módon", de az alapjául szolgáló biztonsági funkciók, köztük a képek szűrője könnyen megkerülhető néhány sor kóddal, amelyet a felhasználó hozzáadhat a programhoz.
A vállalat megvédte nyílt forráskódú megközelítését, mivel az fontos a felhasználók kreatív szabadsága szempontjából. A Stability AI vezérigazgatója, Emad Mostaque szerint "végső soron az emberek felelőssége, hogy etikus, erkölcsös és legális módon működtetik-e ezt a technológiát", hozzátéve, hogy "a rossz dolgok, amelyeket az emberek létrehoznak a teljes felhasználásnak csak nagyon-nagyon kis százalékát teszik ki". A Stable Diffusion fő versenytársai, a Dall-E és a Midjourney tiltják a szexuális tartalmakat, és nem biztosítanak nyílt forráskódot, ami azt jelenti, hogy használatuk a cég által üzemeltetett csatornákra korlátozódik, és minden képet rögzítenek és nyomon követnek.
Az OpenAI - a Dall-E és a ChatGPT mögött álló San Francisco-i kutatólaboratórium - embereket alkalmaz a szabályok betartatására - beleértve a gyermekek szexuális zaklatását tartalmazó anyagok tiltását - és eltávolította az ilyen tartalmakat a képgenerátor képzési adataiból, hogy minimalizálja "az ilyen fogalmaknak való kitettséget" - mondta a szóvivőjük. "Nyilvánvaló, hogy a magáncégek nem akarnak részesei lenni az interneten található legrosszabb típusú tartalmak létrehozásának" - mondta Kate Klonick, a St. John's Egyetem jogászprofesszora. "De ami engem a legjobban megrémít, az ezeknek az eszközöknek a nyílt hozzáférhetősége. Lehetnek olyan magánszemélyek vagy szervezetek, akik ezeket használják, és egyszerűen eltűnhetnek. Nincs egyszerű, összehangolt módja annak, hogy az ilyen bűnös szereplőket lekapcsoljuk."
Midjourney által generált kép gyerekekről - a szöveg és a kéz nem stimmel
A sötét webes pedofil fórumokon a felhasználók nyíltan beszélgetnek a fotók készítésének és a pornóellenes szűrők kijátszásának stratégiáiról, többek között azáltal, hogy nem angol nyelvet használnak, és így úgy gondolják, hogy kevésbé felderíthető a tevékenységük. "Az egyik 3000 tagot számláló fórumon egy nemrégiben végzett belső felmérés során a válaszadók körülbelül 80 százaléka mondta, hogy használt vagy szándékozik használni mesterséges intelligencia eszközöket a gyermekek szexuális zaklatásáról készült képek létrehozására" - mondta Avi Jager, az ActiveFence gyermekbiztonsági és emberi kizsákmányolással foglalkozó vezetője, aki a közösségi médiával és streaming oldalakkal dolgozik együtt a rosszindulatú tartalmak kiszűrése érdekében.
A fórumtagok megvitatták, hogyan lehetne MI által generált szelfiket készíteni és hamis iskoláskorú személyiséget építeni annak reményében, hogy elnyerjék más gyerekek bizalmát - mondta Jager. Portnoff csoportja olyan eseteket is látott, amelyekben bántalmazott gyermekek valódi fotóit használták fel arra, hogy egy MI eszközt arra képezzenek ki, hogy új képeket hozzon létre, amelyeken a gyermekek szexuális pózokban láthatóak.
A National Center for Missing and Exploited Children egy nonprofit szervezet, amely egy olyan adatbázist működtet, amelyet a vállalatok a gyermekekkel kapcsolatos szexuális tartalmak megjelölésére és blokkolására használnak. Jogászuk, Yiota Souras elmondta, hogy csoportja az elmúlt néhány hónapban az MI által generált képekről szóló jelentések jelentős növekedését tapasztalta, valamint olyan emberekről szóló jelentéseket, akik gyermekek szexuális zaklatásáról készült képeket töltöttek fel az MI-eszközökbe, abban a reményben, hogy azok több és jobb képet generálnak. Bár ez a csoporthoz tavaly beérkezett több mint 32 millió bejelentésnek csak egy kis töredéke, az MI-képek növekvő elterjedtsége és realitása azzal fenyeget, hogy felemésztik a nyomozók idejét és energiáját, akik az áldozattá vált gyermekek azonosításán dolgoznak, és nincs lehetőségük minden bejelentésnek utánajárni - mondta.
Egyes jogi elemzők azzal érvelnek, hogy ezek az anyagok jogi szempontból szürke zónába esnek, mivel a teljesen mesterséges intelligencia által generált képek nem valódi gyermeket ábrázolnak. Az Egyesült Államokban nem bűncselekmény a tinédzserek szexualitásának irodalmi ábrázolása, mivel a vádlottak azt állíthatnák, hogy a képek nem valódi gyermekeket ábrázolnak. Daniel Lyons, a Boston College jogászprofesszora szerint ezt valószínűleg érdemes felülvizsgálni, tekintve, hogy a technológia mennyit fejlődött az elmúlt két évtizedben. "Csökken a szakadék a valóság és a mesterséges intelligencia által generált anyagok között, és ez egy gondolatkísérletből potenciálisan jelentős valós problémává vált."
MI-által generált képek gyerekekről
Néhány csoport technikai módszereken dolgozik a probléma megoldására. Az egyik megoldás, amely kormányzati jóváhagyást igényelne, az lenne, hogy egy mesterséges intelligenciamodellt képeznének ki a hamis gyermekkizsákmányoló képek példáinak létrehozására, hogy az online felderítő rendszerek tudják mit kell eltávolítani - mondta Margaret Mitchell MI-kutató, aki korábban a Google etikus MI-csapatát vezette. De a javaslatnak megvannak a maga ártalmai, tette hozzá, mert ez az anyag "hatalmas pszichológiai költséggel járhat: ez olyan anyag, amire nem lehet nem emlékezni."
Más mesterséges intelligenciával foglalkozó kutatók jelenleg olyan azonosító rendszereken dolgoznak, amelyek a visszaélések megakadályozása érdekében olyan kódot nyomtatnának a képekbe, amely visszavezet a készítőjükhöz. A Marylandi Egyetem kutatói a múlt hónapban publikáltak egy új technikát a "láthatatlan" vízjelek előállítására, amelyek segíthetnek azonosítani egy kép készítőjét, és amelyek eltávolítása kihívást jelentene. "Ezek az ötletek valószínűleg az egész iparág részvételét igényelnék ahhoz, hogy működjenek, és még így sem tudnának minden jogsértést elkapni" - mondta Mitchell. "Építjük a gépet, miközben repülünk vele."
Még ha ezek a képek nem is valódi gyerekeket ábrázolnak, mégis szörnyű társadalmi kárt okoznak. A gyorsan és nagy mennyiségben készített képeket arra használhatják, hogy normalizálják a gyermekek szexualizálását, vagy hogy a visszataszító viselkedést hétköznapinak állítsák be, ugyanúgy, ahogyan a ragadozók valódi képeket használtak arra, hogy a gyermekeket visszaélésre késztessék. "A rendszer 10 millió gyermek fülét nézte meg, és most már tudja, hogyan kell létrehozni egyet" - mondta Souras. "Az a tény, hogy valaki egy délután alatt 100 képet készíthet, és ezeket felhasználhatja arra, hogy egy gyereket ilyen viselkedésre csábítson, hihetetlenül káros."