SG.hu
Elítéltek 15 gyereket, mert MI-generált meztelen képeket terjesztettek osztálytársaikról
Egy spanyol bíróság 15 fiatalkorút ítélt egy év próbaidőre, miután két WhatsApp-csoportban MI által generált meztelen képeket terjesztettek osztálytársaikról. A tinédzsereket szexuális felvilágosítással és a mesterséges intelligencia felelős használatával kapcsolatos órákra kötelezték.
A kiskorúakat 20 rendbeli gyermekekkel való szexuális visszaélésről készült képek készítésével és 20 rendbeli, áldozataik erkölcsi integritása elleni bűncselekménnyel vádolták meg. A próbaidő mellett a tizenéveseknek a nemek közötti egyenlőségről és egyenlőségről, valamint az "információs és kommunikációs technológiák felelős használatáról" szóló tanfolyamokon is részt kell venniük - áll a Badajoz-i Fiatalkorúak Bíróságának sajtóközleményében. A hamis képek tavaly kezdtek el terjedni, de az áldozatok közül sokan túlságosan szégyellték magukat ahhoz, hogy tiltakozzanak ellene. Az ítélethirdetés előtt az egyik áldozat édesanyja elmondta, hogy a lányok "nagyon megrémültek és szorongásos rohamaik voltak, mert senkihez nem tudtak fordulni".
A bíróság megerősítette, hogy a tizenévesek mesterséges intelligenciát használtak arra, hogy olyan képeket hozzanak létre, amelyeken osztálytársaik meztelenül jelennek meg. Áldozataik közösségi média profiljairól fényképeket töltöttek le, és az arcukat "más meztelen női testekre" helyezték fel. A mentális egészségre gyakorolt hatások mellett az áldozatok arról is beszámoltak, hogy elvesztették a bizalmukat az őket célba vevő osztálytársakkal szemben, és iskolát akartak váltani, hogy elkerüljék a zaklatókkal való további kapcsolatot. Mások abbahagyták fotóik online közzétételét, és továbbra is félnek attól, hogy az MI-képek újra felbukkannak.
Riasztó globális trend, hogy a tinik mesterséges intelligenciát használnak osztálytársaik szexualizálására és zaklatására. A rendőrség amerikai középiskolákban is nyugtalanító eseteket vizsgál, és az év elején az Európai Unió javasolta a gyermekek szexuális zaklatásának definíciójának kibővítését, hogy hatékonyabban lehessen "büntetőeljárást indítani a deepfake és az MI által generált anyagok előállítása és terjesztése ellen".
Az osztálytársakat célba vevő kiskorúak talán nem is tudják pontosan, hogy a képek milyen messzire terjedhetnek potenciálisan. A hamisított, gyermekek szexuális zaklatását ábrázoló anyagok (Child Sexual Abuse Material, CSAM) kereskedésére külön fórumok vannak. Az Egyesült Királyságban működő Internet Watch Foundation (IWF) tavalyi vizsgálata arról számolt be, hogy "20254 MI által generált képet találtak egy sötét webes CSAM-fórumon egy hónap alatt", amelyeknek több mint felét nagy valószínűséggel bűncselekménynek minősítették. Az IWF szerint egyre növekszik a mesterséges intelligenciával generált CSAM-ok piaca, és a szervezet arra a következtetésre jutott, hogy "a mesterséges intelligenciával generált CSAM-ok többsége ma már elég reális ahhoz, hogy valódi CSAM-ként kezeljék őket". Egy Spanyolországban áldozattá vált osztálytársnő "megdöbbent" édesanyja egyetértett ezzel, azt mondta, hogy "ha nem ismerném a lányom testét, azt hittem volna, hogy az a kép valódi".
Miközben a törvényhozók azon fáradoznak, hogy a CSAM elleni meglévő védelmet alkalmazzák a mesterséges intelligencia által generált képekre, vagy hogy frissítsék a törvényeket, hogy kifejezetten büntetőeljárás alá vonják ezt az elkövetői alakzatot, más, drasztikusabb megoldásokat is javasoltak a mélyhamisítványok káros terjedésének megakadályozására. Az IWF azt javasolJa, hogy a bombakészítéssel kapcsolatos információk megosztását korlátozó jogszabályokhoz hasonlóan a törvényhozók korlátozzák azokat az útmutatókat, amelyek a rossz szereplőket arra vonatkozóan oktatják, hogyan használhatják a mesterséges intelligenciát CSAM létrehozására.
A Malvaluna Egyesület - amely az áldozatok családjait képviseli Spanyolországban, és széles körben kiáll a jobb szexuális felvilágosítás mellett - szóvivője azt mondta egy helyi lapnak, az El Diario-nak, hogy a szabályozáson túl oktatásra van szükség ahhoz, hogy megállítsák a tizenéveseket, akik a mesterséges intelligenciát osztálytársaik megtámadására használják. Mivel a tinédzsereket tanórákra kötelezték, az egyesület beleegyezett az ítélethozatali intézkedésekbe. "A konkrét tárgyaláson túl ezek a tények elgondolkodtatnak bennünket arról, hogy a férfiak és nők közötti egyenlőségre kell nevelni az embereket" - mondta a Malvaluna Egyesület. A csoport sürgette, hogy a mai gyerekek ne a pornográfián keresztül tanuljanak a szexről, amely "még több szexizmust és erőszakot generál".
A Spanyolországban elítélt tizenévesek 13 és 15 év közöttiek. A spanyol törvények megakadályozzák a 14 év alattiak elítélését, de az ifjúsági bíróság "kötelezheti őket rehabilitációs tanfolyamokon való részvételre". A technológiai cégek megkönnyíthetnék a káros deepfake-ek bejelentését és eltávolítását is, hiszen a Meta tulajdonában lévő WhatsAppot használták a hamis képek megosztására Spanyolországban. Egy GYIK szerint "a WhatsApp zéró toleranciát tanúsít a gyermekek szexuális kizsákmányolásával és visszaélésével szemben, és kitiltjuk a felhasználókat, ha tudomást szerzünk arról, hogy olyan tartalmat osztanak meg, amely kihasználja vagy veszélyezteti a gyermekeket", de nem említi a mesterséges intelligenciát.
A hírben szereplő képek MI-által generáltak.
A kiskorúakat 20 rendbeli gyermekekkel való szexuális visszaélésről készült képek készítésével és 20 rendbeli, áldozataik erkölcsi integritása elleni bűncselekménnyel vádolták meg. A próbaidő mellett a tizenéveseknek a nemek közötti egyenlőségről és egyenlőségről, valamint az "információs és kommunikációs technológiák felelős használatáról" szóló tanfolyamokon is részt kell venniük - áll a Badajoz-i Fiatalkorúak Bíróságának sajtóközleményében. A hamis képek tavaly kezdtek el terjedni, de az áldozatok közül sokan túlságosan szégyellték magukat ahhoz, hogy tiltakozzanak ellene. Az ítélethirdetés előtt az egyik áldozat édesanyja elmondta, hogy a lányok "nagyon megrémültek és szorongásos rohamaik voltak, mert senkihez nem tudtak fordulni".
A bíróság megerősítette, hogy a tizenévesek mesterséges intelligenciát használtak arra, hogy olyan képeket hozzanak létre, amelyeken osztálytársaik meztelenül jelennek meg. Áldozataik közösségi média profiljairól fényképeket töltöttek le, és az arcukat "más meztelen női testekre" helyezték fel. A mentális egészségre gyakorolt hatások mellett az áldozatok arról is beszámoltak, hogy elvesztették a bizalmukat az őket célba vevő osztálytársakkal szemben, és iskolát akartak váltani, hogy elkerüljék a zaklatókkal való további kapcsolatot. Mások abbahagyták fotóik online közzétételét, és továbbra is félnek attól, hogy az MI-képek újra felbukkannak.
Riasztó globális trend, hogy a tinik mesterséges intelligenciát használnak osztálytársaik szexualizálására és zaklatására. A rendőrség amerikai középiskolákban is nyugtalanító eseteket vizsgál, és az év elején az Európai Unió javasolta a gyermekek szexuális zaklatásának definíciójának kibővítését, hogy hatékonyabban lehessen "büntetőeljárást indítani a deepfake és az MI által generált anyagok előállítása és terjesztése ellen".
Az osztálytársakat célba vevő kiskorúak talán nem is tudják pontosan, hogy a képek milyen messzire terjedhetnek potenciálisan. A hamisított, gyermekek szexuális zaklatását ábrázoló anyagok (Child Sexual Abuse Material, CSAM) kereskedésére külön fórumok vannak. Az Egyesült Királyságban működő Internet Watch Foundation (IWF) tavalyi vizsgálata arról számolt be, hogy "20254 MI által generált képet találtak egy sötét webes CSAM-fórumon egy hónap alatt", amelyeknek több mint felét nagy valószínűséggel bűncselekménynek minősítették. Az IWF szerint egyre növekszik a mesterséges intelligenciával generált CSAM-ok piaca, és a szervezet arra a következtetésre jutott, hogy "a mesterséges intelligenciával generált CSAM-ok többsége ma már elég reális ahhoz, hogy valódi CSAM-ként kezeljék őket". Egy Spanyolországban áldozattá vált osztálytársnő "megdöbbent" édesanyja egyetértett ezzel, azt mondta, hogy "ha nem ismerném a lányom testét, azt hittem volna, hogy az a kép valódi".
Miközben a törvényhozók azon fáradoznak, hogy a CSAM elleni meglévő védelmet alkalmazzák a mesterséges intelligencia által generált képekre, vagy hogy frissítsék a törvényeket, hogy kifejezetten büntetőeljárás alá vonják ezt az elkövetői alakzatot, más, drasztikusabb megoldásokat is javasoltak a mélyhamisítványok káros terjedésének megakadályozására. Az IWF azt javasolJa, hogy a bombakészítéssel kapcsolatos információk megosztását korlátozó jogszabályokhoz hasonlóan a törvényhozók korlátozzák azokat az útmutatókat, amelyek a rossz szereplőket arra vonatkozóan oktatják, hogyan használhatják a mesterséges intelligenciát CSAM létrehozására.
A Malvaluna Egyesület - amely az áldozatok családjait képviseli Spanyolországban, és széles körben kiáll a jobb szexuális felvilágosítás mellett - szóvivője azt mondta egy helyi lapnak, az El Diario-nak, hogy a szabályozáson túl oktatásra van szükség ahhoz, hogy megállítsák a tizenéveseket, akik a mesterséges intelligenciát osztálytársaik megtámadására használják. Mivel a tinédzsereket tanórákra kötelezték, az egyesület beleegyezett az ítélethozatali intézkedésekbe. "A konkrét tárgyaláson túl ezek a tények elgondolkodtatnak bennünket arról, hogy a férfiak és nők közötti egyenlőségre kell nevelni az embereket" - mondta a Malvaluna Egyesület. A csoport sürgette, hogy a mai gyerekek ne a pornográfián keresztül tanuljanak a szexről, amely "még több szexizmust és erőszakot generál".
A Spanyolországban elítélt tizenévesek 13 és 15 év közöttiek. A spanyol törvények megakadályozzák a 14 év alattiak elítélését, de az ifjúsági bíróság "kötelezheti őket rehabilitációs tanfolyamokon való részvételre". A technológiai cégek megkönnyíthetnék a káros deepfake-ek bejelentését és eltávolítását is, hiszen a Meta tulajdonában lévő WhatsAppot használták a hamis képek megosztására Spanyolországban. Egy GYIK szerint "a WhatsApp zéró toleranciát tanúsít a gyermekek szexuális kizsákmányolásával és visszaélésével szemben, és kitiltjuk a felhasználókat, ha tudomást szerzünk arról, hogy olyan tartalmat osztanak meg, amely kihasználja vagy veszélyezteti a gyermekeket", de nem említi a mesterséges intelligenciát.
A hírben szereplő képek MI-által generáltak.