Berta Sándor

Továbbra is előítéletesek az arcfelismerő algoritmusok

Egy honlapon kipróbálható, hogy az egyes szoftverek mit gondolnak a fotóját feltöltő személyről.

Azt már 2017 decemberében ismertette Joy Buolamwini, az MIT Media Lab kutatója, hogy az algoritmusok előítéletesek. A szakember az Algorithmic Justice League vezetője, a szervezet a gépi tanuláson alapuló rendszerek előítéletei és sztereotípiái ellen harcol. Azt pedig, hogy mennyire veszélyes a jelenlegi helyzet, jól példázta tavaly júliusban az az eset, amikor bűnözőnek ismert fel 3 szenátort és 25 képviselőt az Amazon Rekognition nevű arcfelismerő szoftvere. Nem véletlen az sem, hogy az IBM egy olyan programot fejleszt, amely a mesterséges intelligenciák előítéletei ellen fog küzdeni és azt vizsgálja majd, hogy a technológia által hozott döntések előítéletesek-e és ha igen, mennyire. Szintén megoldásra vár az a probléma, hogy a képfelismerő algoritmusok szexisták: amennyiben egy konyhát látnak, akkor azt automatikusan a nőkkel hozzák kapcsolatba.

Az arcfelismerő rendszerek napjainkban egyre elterjedtebbek és ennek komoly hatásai lehetnek az emberek életére. Kínában például egy fiatal nő sebészeti úton megváltoztatta az orrát és a beavatkozás után sem az online banki szolgáltatást nem tudta használni, sem a szállodákban nem tudott szobát foglalni és a vonatokra sem tudott jegyet vásárolni. Az ok egyszerű volt: a módosított orra, vagyis a megváltozott külseje miatt a rendszerek nem ismerték fel.

Az imagenet-roulette.paglen.com oldalon bárki kipróbálhatja, hogy mit gondolna róla egy algoritmus, ha a fényképe felkerülne a világhálóra és szembesülne azzal egy arcfelismerő rendszer. A honlap része a Training Humans című művészeti kiállításnak, amelyet a múlt héten nyitottak meg a milánói Osservatorio Fondazione Prada galériában. Trevor Paglen művész és Kate Crawford, az AI Now mesterséges intelligencia kutatóintézet igazgatója azt akarták bemutatni, hogy miként értékelik ki és becsülik fel az embereket a láthatatlan rendszerek. A kísérletben eddig több ezer felhasználó vett részt. Érdekesség, hogy a nők fotói alatt a leggyakrabban a "szexi" vagy az "anya" kifejezés volt olvasható.

A honlap hátterét az Imagenet nevű adatbázis biztosítja. Ez az egyik leggyakrabban használt olyan platform, amelyet a vállalatok a mesterséges intelligenciára épülő megoldásaik képzésére alkalmaznak. Az Imagenet rendszerében felvételek milliói találhatók meg. A képeket rosszul megfizetett munkatársak töltik fel, akik az előítéleteiket is betáplálják az adatbázisba. A mostani kísérlet azt eredményezte, hogy az Imagenet bejelentette, hogy a felvételek felét törli.

Paglen és Crawford szerint azonban további problémát jelent, hogy a számítógépes rendszereket arra tanítják meg, hogy az emberek érzelmeit hat különböző arckifejezés segítségével ismerjék fel. Ez nagyon hasonlít arra, mint amikor a 19. században például a koponya formája alapján próbálták meg kikövetkeztetni valakinek a tulajdonságait.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • NEXUS6 #14
    Valóban, a világot nem tudjuk minden egyes esetben a maga egyediségében vizsgálni, nincs rá erőforrás, de talán nem is kell. A világban működnek bizonyos erők, amelyek általánosak, ha ismerjük őket, akkor tudunk helyes válaszokat adni. A túltólt rasszizmus lehet, hogy tévút, de kérdezem: a gravitáció pl. kirekesztő, mert a kövér emberekre nagyobb erőt fejt ki, mint a sportos, fitt soványakra?
    Akkor most tiltsuk be?
  • globint #13
    Ez kimaradt:
    Szeretjük az ismert dolgokat, a kliséket, és ha választhatunk, hogy mellénk költözzön egy magyar, tőlünk alacsonyabb foglalkozású család, vagy egy általunk sohasem hallott népcsoprt egy tagja, akkor köszönjük, nem kérjük. Ezt is rasszizmusozzák, pedig ez sem az.
  • globint #12
    A pirézes kérdőívvel mi is dolgoztunk a párommal. Akkor nem értettem, mi a fenének ilyen kérdés, mára összeállt a kép. Ezek már akkor erre készültek.....
    Más. Amikor diákként kimehettem az NDK-ba, nyári diákmunkára, mint egy-szem magyar egy német faluba, a szüleim a lelkemre kötötték, igyekezzek az "átlagnémetként" viselkedni, mert mint egy-szem magyar azt érem el, hogy azt gondolják a faluban, minden magyar ilyen. Szóval akár kevés az infó, akár sok, az ember igyekszik egyszerűsíteni, és nem spekulál, hogy az igaz, hogy a pirézek nagy többsége lop és nem dolgozik, de hátha ez a kis koszos alkohol és cigi szagú piréz az hátha nem ilyen....
    Rohanunk, nincs időnk és nincs pénzünk kísérletezni, előkapjuk a klisét, használjuk. Aztán meg megkapjuk, hogy rasszisták vagyunk.
    Utoljára szerkesztette: globint, 2019.09.26. 19:21:44
  • VolJin #11
    Az meg van, amikor a Google Photo a néger arcokat gorillának címkézte a fényképeken? :-D
    Még tüntettek is ellene, hogy rasszista.
    Az volt még a durva, amikor két MI-t hálózaton összekapcsoltak. Elkezdtek egymással kommunikálni, és közben kialakítottak egy saját nyelvet. Az embereknek fogalma sem volt, hogy ezek mit pofáznak egymással, így lekapcsolták a gépeket.
  • vilinger #10
    "a megváltozott külseje miatt a rendszerek nem ismerték fel."

    De olyankor kell új személyi, új útlevél. Mindenhez új fénykép. Ha ezt nem tette meg, mire panaszkodik??
  • rajdi #9
    Megvan a válasz a cikkben, hisz "A képeket rosszul megfizetett munkatársak töltik fel, akik az előítéleteiket is betáplálják az adatbázisba." Amikor rosszul fizetett vagyok, én is előítéletes leszek, de amint jön egy fizuemelés, ez az elítélendő hozzáállásom tovaszáll! Na jah...
  • NEXUS6 #8
    Könyörgöm, hogy működnek ezek az algoritmusok? Van egy csomó adat, azokból mintázatokat keres, azokat meg berakja egy adott kategóriába (amit esetleg ő maga hoz létre).

    Ha teszem azt statisztikailag, mondjuk a feketék között arányiban több a bűnöző (nyilván ilyenről szó sincs :), akkor nagyobb eséllyel fog egy feketét téves azonosításkor ide rakni. Őöööö, ez akkor most rasszizmus? Mi a megoldás, ha csinálunk egy szubrutint, ami ilyen esetekben a statisztikai valószínűséghez képest torzítja a feketék bűnözővé nyilvánítását. Ez nagyon píszís módszer lenne és természetesen én is támogatom. XD

    Vagy meoldás lehet, hogy a feketék kevesebbet bűnöznek.
    A nők kevesebbet mosogatnak, a nagymamik kevesebbet kötögetnek, a pornósok kevesebbet dugnak, a politikusok pedig kevesebbet... izé, szerepelnek a médiákban. Csak hogy a fránya algoritmusok ne kezdjenek el őket szemét módon kategorizálni.

    Második alternatíva, mi lenne ha elfogadnánk, hogy a világ ilyen, mert ez gyak annak a tükörképe, és ha a tükörképem nem tetszik sem szoktam bebaxni.
  • ostoros #7
    Én is találkoztam már a pirézes kérdéssel, és a szociológusok bekaphatják... noha tudtam, hogy nem létezik ilyen csoport, akkor is azt írtam, hogy nem kell a szomszédomba...
    Mert olyan válaszlehetőség nem volt, hogy beírjam, hogy a kurva anyáddal szórakozz...
    Mellesleg ez nem is feltétlenül az előítéletet méri.
    Az, hogy valaki nem akar más csoportokat maga körül nem ugyanaz, mintha valaki a saját csoportját szeretné maga körül...
  • Mat666 #6
    Az előítélet a legtöbb esetben utóit élet amikor egy csoport tagjaival jól megszívod vagy esetleg egy ismerösőd: Persze hogy lesz előítéleted hogy magadat véd ha van eszed.
    És ha nincs akkor úgy jársz mint azok a Norvég lányok akik elmentek Marrokba mert azt hitték hogy minden ember egy forma hogy a fehérek rasszisták mert stb... és mi lett a vége jól meg erőszakolták őket azt le vágták a fejüket. Ha lett volna bennük egy kis előítélet akkor elmentek volna a Spanyolokhoz Olaszokhoz vagy hozzánk.
  • zola2000 #5
    Nézd, amit a mocsok pirézekről hallottam, jobb is hogy nincsenek


    Utoljára szerkesztette: zola2000, 2019.09.25. 19:46:44