SG.hu

Mit lehet kezdeni egy számítógép generálta pedofil képpel?

A mesterséges intelligencia forradalma a gyermekek szexuális kizsákmányolását bemutató nyugtalanítóan élethű képek robbanásszerű megjelenését váltotta ki. A gyermekvédelmi nyomozók szerint ezek aláássák az áldozatok felkutatására és a valós visszaélések elleni küzdelemre irányuló erőfeszítéseket.

A generatív MI-eszközök másodpercek alatt képesek valósághű képeket létrehozni szexuális aktusokat végző gyermekekről. A gyermekpornográfiát szinte a világon mindenhol több éves börtönnel büntetik, és a Washington Post riportja szerint a technika "ragadozói fegyverkezési versenyt" indított el a pedofil fórumokon. Egyes résztvevők részletes útmutatókat osztottak meg arról, hogy más pedofilok hogyan készíthetik el saját alkotásaikat. "Az ismert áldozatokról készült tartalmakat újrahasznosítják ehhez az igazán gonosz kimenethez" - mondta a lapnak Rebecca Portnoff, egy nonprofit gyermekbiztonsági csoport adattudományi igazgatója, aki tavaly ősz óta folyamatos növekedést tapasztalt a képek elterjedtségében. "Az áldozatok azonosítása, amikor a bűnüldöző szervek megpróbálják megtalálni a veszélyben lévő gyermeket már most is tű keresésével ér fel egy szénakazalban." - mondta. "Az ilyen eszközök használatának egyszerűsége jelentős változást jelent, ez még nagyobb kihívássá vált."

A képek áradata megzavarja azokat az algoritmusokat, amelyeket azért építettek ki, hogy megakadályozzák az ilyen anyagok világhálón való terjedését. A rendszer csak az ismert visszaélésekről készült képeket képes megfogni, az újonnan létrehozottakat nem. Azzal is fenyeget, hogy túlterheli a bűnüldöző hatóságokat, akik az áldozattá vált gyermekek azonosításán dolgoznak, és kénytelenek lesznek annak megállapításával tölteni az idejüket, hogy a képek valódiak-e vagy hamisak. A képek arról is vitát váltottak ki, hogy egyáltalán sértik-e a gyermekvédelmi törvényeket, mivel gyakran olyan gyermekeket ábrázolnak, akik nem is léteznek. A gyermekkizsákmányolás ellen küzdő amerikai igazságügyi minisztériumi tisztviselők szerint az ilyen képek még akkor is illegálisak, ha az ábrázolt gyermek mesterséges intelligencia által generált, de nem tudtak olyan esetet említeni, amelyben gyanúsítottat vád alá helyeztek volna egy ilyen kép elkészítéséért.

Az új mesterséges intelligencia-eszközök, az úgynevezett diffúziós modellek lehetővé teszik, hogy bárki meggyőző képet hozzon létre pusztán egy rövid leírás beírásával arról, hogy mit szeretne látni. Az olyan modelleket, mint a DALL-E, a Midjourney vagy a Stable Diffusion az internetről származó képek milliárdjaival táplálták, amelyek közül sok valódi gyermeket ábrázolt, és fotóoldalakról vagy személyes blogokról származott. Ezeket a vizuális mintákat utánozva hozhatók létre saját képek. Pár hónapja ezeket az eszközöket vizuális leleményességükért ünnepelték, de ma már képzőművészeti versenyek megnyerésére, könyvek illusztrálására, hamis hírfotók készítésére, valamint felnőttnek látszó, nem létező emberekből álló szintetikus pornográfia létrehozására használják.


A Balenciaga kabátot viselő pápa óta mindenki tudja, hogy bármi létrehozható

Ugyanakkor megnőtt annak sebessége és mértéke is, amellyel a pedofilok új, explicit képeket tudnak létrehozni. A fejlett eszközök kevesebb műszaki szaktudást igényelnek, mint a korábbi módszerek, például a gyermekarcok felnőtt testekre való ráhelyezése, és egyetlen paranccsal rengeteg képet létre lehet hozni. A pedofil fórumokon nem mindig derül ki, hogyan készültek az MI által generált képek, de a gyermekbiztonsági szakértők szerint sokan olyan nyílt forráskódú eszközökre támaszkodnak - például a Stable Diffusionra -, amely korlátlanul és ellenőrizetlenül futtatható.

A Stable Diffusiont futtató Stability AI leszögezte, hogy tiltja a gyermekek szexuális zaklatásáról készült képek létrehozását, és segíti a bűnüldöző szervek nyomozását az "illegális vagy rosszindulatú" felhasználások ügyében. Az ilyen anyagokat eltávolította a tréningezésre használt adatokból, csökkentve a "rosszindulatú felhasználók lehetőségét arra, hogy obszcén tartalmakat hozzanak létre". Az eszközt azonban bárki letöltheti a számítógépére, és úgy futtathatja, ahogy akarja, nagyrészt kikerülve a vállalati szabályokat és felügyeletet. Az eszköz nyílt forráskódú licencében arra kéri a felhasználókat, hogy ne használják "kiskorúak kihasználására vagy károsítására semmilyen módon", de az alapjául szolgáló biztonsági funkciók, köztük a képek szűrője könnyen megkerülhető néhány sor kóddal, amelyet a felhasználó hozzáadhat a programhoz.

A vállalat megvédte nyílt forráskódú megközelítését, mivel az fontos a felhasználók kreatív szabadsága szempontjából. A Stability AI vezérigazgatója, Emad Mostaque szerint "végső soron az emberek felelőssége, hogy etikus, erkölcsös és legális módon működtetik-e ezt a technológiát", hozzátéve, hogy "a rossz dolgok, amelyeket az emberek létrehoznak a teljes felhasználásnak csak nagyon-nagyon kis százalékát teszik ki". A Stable Diffusion fő versenytársai, a Dall-E és a Midjourney tiltják a szexuális tartalmakat, és nem biztosítanak nyílt forráskódot, ami azt jelenti, hogy használatuk a cég által üzemeltetett csatornákra korlátozódik, és minden képet rögzítenek és nyomon követnek.

Az OpenAI - a Dall-E és a ChatGPT mögött álló San Francisco-i kutatólaboratórium - embereket alkalmaz a szabályok betartatására - beleértve a gyermekek szexuális zaklatását tartalmazó anyagok tiltását - és eltávolította az ilyen tartalmakat a képgenerátor képzési adataiból, hogy minimalizálja "az ilyen fogalmaknak való kitettséget" - mondta a szóvivőjük. "Nyilvánvaló, hogy a magáncégek nem akarnak részesei lenni az interneten található legrosszabb típusú tartalmak létrehozásának" - mondta Kate Klonick, a St. John's Egyetem jogászprofesszora. "De ami engem a legjobban megrémít, az ezeknek az eszközöknek a nyílt hozzáférhetősége. Lehetnek olyan magánszemélyek vagy szervezetek, akik ezeket használják, és egyszerűen eltűnhetnek. Nincs egyszerű, összehangolt módja annak, hogy az ilyen bűnös szereplőket lekapcsoljuk."


Midjourney által generált kép gyerekekről - a szöveg és a kéz nem stimmel

A sötét webes pedofil fórumokon a felhasználók nyíltan beszélgetnek a fotók készítésének és a pornóellenes szűrők kijátszásának stratégiáiról, többek között azáltal, hogy nem angol nyelvet használnak, és így úgy gondolják, hogy kevésbé felderíthető a tevékenységük. "Az egyik 3000 tagot számláló fórumon egy nemrégiben végzett belső felmérés során a válaszadók körülbelül 80 százaléka mondta, hogy használt vagy szándékozik használni mesterséges intelligencia eszközöket a gyermekek szexuális zaklatásáról készült képek létrehozására" - mondta Avi Jager, az ActiveFence gyermekbiztonsági és emberi kizsákmányolással foglalkozó vezetője, aki a közösségi médiával és streaming oldalakkal dolgozik együtt a rosszindulatú tartalmak kiszűrése érdekében.

A fórumtagok megvitatták, hogyan lehetne MI által generált szelfiket készíteni és hamis iskoláskorú személyiséget építeni annak reményében, hogy elnyerjék más gyerekek bizalmát - mondta Jager. Portnoff csoportja olyan eseteket is látott, amelyekben bántalmazott gyermekek valódi fotóit használták fel arra, hogy egy MI eszközt arra képezzenek ki, hogy új képeket hozzon létre, amelyeken a gyermekek szexuális pózokban láthatóak.

A National Center for Missing and Exploited Children egy nonprofit szervezet, amely egy olyan adatbázist működtet, amelyet a vállalatok a gyermekekkel kapcsolatos szexuális tartalmak megjelölésére és blokkolására használnak. Jogászuk, Yiota Souras elmondta, hogy csoportja az elmúlt néhány hónapban az MI által generált képekről szóló jelentések jelentős növekedését tapasztalta, valamint olyan emberekről szóló jelentéseket, akik gyermekek szexuális zaklatásáról készült képeket töltöttek fel az MI-eszközökbe, abban a reményben, hogy azok több és jobb képet generálnak. Bár ez a csoporthoz tavaly beérkezett több mint 32 millió bejelentésnek csak egy kis töredéke, az MI-képek növekvő elterjedtsége és realitása azzal fenyeget, hogy felemésztik a nyomozók idejét és energiáját, akik az áldozattá vált gyermekek azonosításán dolgoznak, és nincs lehetőségük minden bejelentésnek utánajárni - mondta.

Egyes jogi elemzők azzal érvelnek, hogy ezek az anyagok jogi szempontból szürke zónába esnek, mivel a teljesen mesterséges intelligencia által generált képek nem valódi gyermeket ábrázolnak. Az Egyesült Államokban nem bűncselekmény a tinédzserek szexualitásának irodalmi ábrázolása, mivel a vádlottak azt állíthatnák, hogy a képek nem valódi gyermekeket ábrázolnak. Daniel Lyons, a Boston College jogászprofesszora szerint ezt valószínűleg érdemes felülvizsgálni, tekintve, hogy a technológia mennyit fejlődött az elmúlt két évtizedben. "Csökken a szakadék a valóság és a mesterséges intelligencia által generált anyagok között, és ez egy gondolatkísérletből potenciálisan jelentős valós problémává vált."


MI-által generált képek gyerekekről

Néhány csoport technikai módszereken dolgozik a probléma megoldására. Az egyik megoldás, amely kormányzati jóváhagyást igényelne, az lenne, hogy egy mesterséges intelligenciamodellt képeznének ki a hamis gyermekkizsákmányoló képek példáinak létrehozására, hogy az online felderítő rendszerek tudják mit kell eltávolítani - mondta Margaret Mitchell MI-kutató, aki korábban a Google etikus MI-csapatát vezette. De a javaslatnak megvannak a maga ártalmai, tette hozzá, mert ez az anyag "hatalmas pszichológiai költséggel járhat: ez olyan anyag, amire nem lehet nem emlékezni."

Más mesterséges intelligenciával foglalkozó kutatók jelenleg olyan azonosító rendszereken dolgoznak, amelyek a visszaélések megakadályozása érdekében olyan kódot nyomtatnának a képekbe, amely visszavezet a készítőjükhöz. A Marylandi Egyetem kutatói a múlt hónapban publikáltak egy új technikát a "láthatatlan" vízjelek előállítására, amelyek segíthetnek azonosítani egy kép készítőjét, és amelyek eltávolítása kihívást jelentene. "Ezek az ötletek valószínűleg az egész iparág részvételét igényelnék ahhoz, hogy működjenek, és még így sem tudnának minden jogsértést elkapni" - mondta Mitchell. "Építjük a gépet, miközben repülünk vele."

Még ha ezek a képek nem is valódi gyerekeket ábrázolnak, mégis szörnyű társadalmi kárt okoznak. A gyorsan és nagy mennyiségben készített képeket arra használhatják, hogy normalizálják a gyermekek szexualizálását, vagy hogy a visszataszító viselkedést hétköznapinak állítsák be, ugyanúgy, ahogyan a ragadozók valódi képeket használtak arra, hogy a gyermekeket visszaélésre késztessék. "A rendszer 10 millió gyermek fülét nézte meg, és most már tudja, hogyan kell létrehozni egyet" - mondta Souras. "Az a tény, hogy valaki egy délután alatt 100 képet készíthet, és ezeket felhasználhatja arra, hogy egy gyereket ilyen viselkedésre csábítson, hihetetlenül káros."

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Tetsuo #25
    Különböző országokban némileg különböző jogi háttere van a pedofília kezelésének. Az említett Japánban az adott dologgal megengedőbbek, mint nálunk Európában, viszont bár spriccelhet minden, a genitáliákat még pornófilmekben sem mutathatják. A kulturális különbségek is más viszonyulást eredményezhetnek (hiába egyezik esetleg a jog). Pl. a semita népek (arabok, zsidók) hagyományosan elfogadóbbak a kérdést illetően.
    Az internet publikus, népszerű oldala is tele van olyan fantáziarajzokkal a meztelenség minden fokán, ahol a karakter gyermek, vagy gyermeteg vagy valami afféle állatszerű lény. Tehát nem kell ehhez "AI", csak ez most a marketingtrigger.
    Hol a határ? Gyerek és kisállat kombinációja még oké, ha félig felöltözve van? Ugyanez csupaszon, széttárva, kínozva tilos?
    És hol, Európában? Tehát az USA-ban, Japánban stb. más-más elérhetősége lesz etekintetben is a platformoknak vagy a leszigorúbbhoz állítják a moderációt?

    Szóval ezt már megoldották valahogy, az AI csak mint újabb rajzeszköz jött a képbe. Persze élethűbb, és hamarosan (deepfake) videóknál is megjelenik, de a helyzet jogilag cseppet sem változott/változik.



  • cateran #24
    Nyilvan..elottuk nem is letezett ilyesmi....Sot, miota elontotte a vilagot a sok pedo rajzfilm japanbol, az elkovetok szama is ugrasszeruen megnott....Most menj vissza jatszani a kockaiddal
  • Frekvency #23
    tegyük hozzá, ennek az egész szarnak az elindítói a szexuálisan szétflusztrált, végtelen beteglelkű japánok, akik pedofil rajzfilmekkel elégítik ki a perverz szükségleteiket..
  • felemelő #22
    Igen nagy gond, a demokrácia csődje, amikor egy társadalom a saját tagjai terrorizálására használja a törvényeket.

    .... és a legjobb hírnevű országokban is rengeteg ilyen törvény született... a nem jó hírnevűekről nem is beszélve.
  • zola2000 #21
    Jó, de most ott van egy meztelen kép a neten, hogy választod szét hogy most valaki valahogy rábeszélte esetleg zsarolta vagy magától rakta fel? Erre nem lehet jól megfogalmazott törvényt írni, illetve aki olyant gyűjt az sem tudhatja.

    Megjegyzem Amerikában ilyenkor akkor is elkövető lesz aki felrakta ha saját maga rakta fel, listára kerül meg minden, és nincs politikus aki ki merné mondani hogy ezen a hülyeségen változtatni kell, hogyha valaki saját magáról tesz fel képet attól még ne legyen fiatalon ezzel büntetve.

    Ennyire vannak logikusan átgondolva a dolgok, ha egy gyerek tesz fel magáról képet akkor tönkre teszik a gyerek életét és ez a törvény máig sok helyen ilyen:

    https://sg.hu/cikkek/it-tech/66463/gyermekpornografiaval-vadolnak-egy-15-eves-lanyt

    Ezért írom hogy szerintem fontos mindent alaposan átgondolni, hogy ne ártson többet mondjuk egy tiltás mint amennyit használ.
  • duke #20
    Azt is tegyuk hozza, hogy meg a valos kepek jelentos resze sem buncselekmeny utjan keszul, hanem a gyerekek sajat magukat fenykepezik, es terjesztik magukrol a kepeket menozesbol, szorakozasbol, vagy csak veletlenul. Szoval meg ha jogszabaly szerint tiltott is, akkor se tortent visszaeles, buncselekmeny, nincs aldozat.
  • RJoco #19
    Talán a cikk próbált a tényleges kárra kitérni, de nem igazán sikerült neki.
    A lényeg az utolsó mondatban van: "Az a tény, hogy valaki egy délután alatt 100 képet készíthet, és ezeket felhasználhatja arra, hogy egy gyereket ilyen viselkedésre csábítson, hihetetlenül káros."

    Ez annyit tesz, hogy a pedo készít egy csomó pedo képet különböző gyerekekkel, amit majd megmutogat a sajátjának vagy épp a szomszéd gyereknek, hogy "látod, hogy örülnek ennek? milyen jó nekik?". Így a gyerek természetesnek fogja venni és ellenkezés, kétségek nélkül oda fogja magát adni a felnőttnek.
    Mert amúgy miért is félne a gyerek ettől? Azért, mert a szex, mint téma, a felnőttek körében is egy társadalmi tabu. A gyereknek meg egyáltalán nem beszélnek róla. Ha szóba kerülne valami és a gyerek rákérdez, akkor a "majd, ha elég idős leszel, megtudod" mondat hangzik el a legtöbbször.
    Persze, ha a pedo a saját gyerekével csinálja, akkor már egész kicsi korában hozzászoktathatja, hogy ez a normális, így családon belül nem lesz tabu, de kifele még mindig az. És neki nem is lesz szüksége az MI-re.

    Ezért veszélyes az MI ezen a területen és ezért kellene ezt szabályozni és a pedokat megtalálni és "kezelni".
    Ha csak annyiról lenne szó, hogy saját magának vagy épp más pedotársának mutogatná az általa generált képeket és ezzel nem nyúlna gyerekhez, akkor annyira nem is kellene vele foglalkozni. Mármint az MI generálta képekkel. A pedokat azért még meg kell találni. És a tartalmak számát is kordában kell tartani.

    A pornó manga hivatalos neve hentai. Van képregényben, rajzfilmben és még játékban is. Van több fajtája is a szörnyestől a tanulóig minden.
    Míg egy pornóból meg lehet tanulni, hogyan kell b@szni, addig egy hentai játékból lehet ötleteket venni, hogyan juss el a célig a megfelelő párbeszédekkel és mindig a megfelelő helyen megérintve a nőt.
  • felemelő #18
    Sőt, ha belegondolok (és a társadalmi hasznosságot nézem, semmi "etikai" maszlag, ami ugye nagyon képlékeny világ, lásd vallások), szóval ha belegondolok, akkor az összes eddig készült pedó tartalom birtoklását (ha az MI felismerhetetlenné tette az áldozatot) engedélyezni lehet, hiszen nem okoz többé traumát... ezzel párhuzamosan a fizikai visszaélést (fotózás, videó készítés) még szigorúbbra lehet venni, hiszen indokolatlan. Nem mellesleg üzletileg is értelmetlenné válik, hiszen megszámlálhatatlan régi de transformált elérhető ingyen, vagyis nem vesz senki pénzért.

    Kérdéses számomra, hogy ezzel az erős tiltással a jövendő áldozatokat védjük-e?
    Elmejáték: ha az eddig készült tartalmakat elzárjuk, nem lehet hozzájutni, akkor erős igényt teremt új tartalmak létrehozására anyagi haszonszerzés érdekében. Vagyis a tiltás még nagyobb károkat okoz!

    Példa a rhino tülök. Tiltott a kereskedelem vele. Volt egy példa, ahol egy nagy afrikai területen valaki egy rhino rezervátumot hozott létre, de csődbe ment, mert az állatok teljes védelme mellett [*] levágott rhino tülköket sem lehetett eladni. Így a feketepiacon szabadon élő állatok leölésével szerzett árú csillagászati áron forgott, ezzel húzva magára a bűnözőket, a könnyű pénzszerzésre. Míg az olcsó, árletörő probléma mentes tülköket meg megsemmisítette a hatóság.

    Hát nem őrület? Átgondolatlanság a törvényhozásokban mindenütt.

    [*]: az állatok állatorvosi beavatkozásaikor úgy mellesleg levágták ezt is (oltásokkal, "manikürrel" stb egyidőben)
    A levágott tülkű rhinokat meg vadorzók már nem bántják.

    Utoljára szerkesztette: felemelő, 2023.06.24. 15:37:07
  • felemelő #17
    ha létező képekből dolgozik, akkor is már van nyereség.
    Soha többet nem kellenek új képek.
    Már van elég (hagyni kell a MI-nek hogy nézegesse, az mégsem él vissza vele. azt sem tudja mi az).
    A létező képekből számtalan új képet képes generálni.
    És ugye a gyerekekkel szexuális visszaélés két problémát vet fel.
    Egyszer amikor megtörtént. (Cseppet sem durva esetekben, ha nem fetisizálnák feleslegesen, talán nem is traumatizálná a gyereket, pl. nudista telepek képeinek felhasználása. Ha nem tud róla, hogy most valami rossz történt vele, akkor nem is veszi fel, eszébe sem jut, hiszen ez a meztelenség teljesen természetes dolog.)
    Másodszor amikor később, akár évtizedekkel később találkozik a saját képeivel. Ez traumatizál gyakran nagyon, valóságosan.
    Na, ha a MI sok képből generál mégegyet, akkor ez a második traumatizáló hatás teljesen kiesik.
    Vagyis máris sokat nyerhet a világ ezzel.

    És pont a tiltás okoz károkat!
    Hiszen egy generált kép második traumatizálása elmaradt. Az első meg vagy nem is volt igazán trauma vagy már megtörtént, ezen nem lehet változtatni, de soha többet nem kell több kép ill. felvétel.

    Nem beszélve egy egyszerű MI "trükkről".
    Nem hiszem hogy problémát okozna a minta-módosítás a rendszernek, vagyis a kép elkészül legális felnőtt pornó alapján, aztán a képet megfiatalítja, de már csupa legális fiatal fotója alapján (arcok, fürdőruhás képek, stb)

    Szóval ki kellene venni az érzelmeket végre és szakemberekre bízni hogy az _optimális_ eredményt lehessen kihozni.
  • zola2000 #16
    #13: a pornóból jöhet pár fétis de úgy tudom a szexualizáció alapvető irányát nem változtatja meg, és ha valakinél alapvetően elcseszett nem biztos hogy jó ötlet az áldozat nélküli levezetési lehetőséget elvenni, más szóval cölibátusra kényszeríteni. Sokan írják hogy az egyháznak is el kellene törölni a cölibátust, mert pont abból van sok probléma.

    Persze amit írtam abban nem vagyok biztos, érzelmileg nagyon felkavaró a téma emiatt is az emberek sokszor logikátlan döntéseket hoznak. Szerintem mindenképp komolyabban kellene kutatni a területet.

    Bár itt arról van szó hogy kész áldozattal járó képekből hoznak létre valósághű újakat, na emiatt már érthető a probléma. Úgy tudom ezért tiltott ami teljesen valósághű, míg ami nem valósághű az más.
    Utoljára szerkesztette: zola2000, 2023.06.24. 10:30:52