Berta Sándor
Nászutas fotókkal is edzik az arcfelismerő rendszereket
A különböző megoldások tökéletesítésére teljesen átlagos fényképeket is felhasználnak.
Egy projekt segítségével kideríthető, hogy a Flickr platformra feltöltött felvételek közül valamelyiket alkalmazták-e a különböző arcfelismerő rendszerek képzésére. A The New York Times a cikkében rámutatott, hogy könnyen előfordulhat, hogy például valaki elhelyezi az oldalon a nászútjáról készített fotókat, majd a tudta nélkül azokat az egyes megfigyelési szoftvereket fejlesztő cégek felhasználják az arcfelismerő algoritmusok elkészítésére, illetve továbbfejlesztésére.
A különböző vállalatok számos online forrásból, köztük a Flickr rendszeréből beszereznek teljesen átlagos fényképeket. Az Exposing.ai nevű új eszközzel most bárki megvizsgálhatja, hogy az ő felvételeit érinti ez a gyakorlat. Voltak, akik már éltek ezzel a lehetőséggel. Brett Gaylor kanadai dokumentumfilm-készítő például megdöbbent, amikor az Exposing.ai előzetes verziója segítségével megtudta, hogy a nászútjáról készített fotókat, amelyeket 15 esztendővel ezelőtt töltött fel a platformra, az eltelt időszakban számos algoritmus edzésére használták fel. A képek bekerültek a Megaface nevű adatbázisba, amelyet eredetileg az arcfelismerő megoldásokkal kapcsolatos kutatásokhoz hoztak létre. A felvételeket később számos vitatott alkalmazás edzésére is alkalmazták. Köztük volt egy Kínában az ujgurok ellenőrzésére bevetett program.
Gaylor elmondta, hogy a kíváncsisága egy idő után rémületbe csapott át, amikor az új szolgáltatás bevonásával felfedezte, hogy hová kerültek a fotói. Jogilag ugyanakkor nem sokat tehetett, mert a képeket korábban Creative Commons licenc alatt jelentette meg, amely többek között lehetővé tette mások számára azok újbóli felhasználását. Tette ezt azért, mert azt hitte, hogy az internetes információk szabad áramlása többnyire egy pozitív dolog. Most viszont együtt kell élnie a negatív következményekkel.
Az Adam Harvey és Jules LaPlace magánélet-aktivisták által létrehozott Exposing.ai hasonló elven működik, mint egy online kereső. A Flickr rendszerébe feltöltött felvételek internetes címei segítségével ellenőrizhető, hogy az adott fotót alkalmazták-e nyilvános arcfelismerő rendszerek tesztelésére vagy továbbfejlesztésére. A keresés során nem működik arcfelismerő algoritmus, kizárólag a Flickr felhasználói neveket és azonosítókat veszik figyelembe. A folyamat során a rendszer összesen hat képadatbázist néz át, köztük van a több mint 3,5 millió Flickr-felvételt tartalmazó Megaface, a több mint 115 000 fotót felvonultató Divaface és a több mint 31 000 képes Pipa.
Egy projekt segítségével kideríthető, hogy a Flickr platformra feltöltött felvételek közül valamelyiket alkalmazták-e a különböző arcfelismerő rendszerek képzésére. A The New York Times a cikkében rámutatott, hogy könnyen előfordulhat, hogy például valaki elhelyezi az oldalon a nászútjáról készített fotókat, majd a tudta nélkül azokat az egyes megfigyelési szoftvereket fejlesztő cégek felhasználják az arcfelismerő algoritmusok elkészítésére, illetve továbbfejlesztésére.
A különböző vállalatok számos online forrásból, köztük a Flickr rendszeréből beszereznek teljesen átlagos fényképeket. Az Exposing.ai nevű új eszközzel most bárki megvizsgálhatja, hogy az ő felvételeit érinti ez a gyakorlat. Voltak, akik már éltek ezzel a lehetőséggel. Brett Gaylor kanadai dokumentumfilm-készítő például megdöbbent, amikor az Exposing.ai előzetes verziója segítségével megtudta, hogy a nászútjáról készített fotókat, amelyeket 15 esztendővel ezelőtt töltött fel a platformra, az eltelt időszakban számos algoritmus edzésére használták fel. A képek bekerültek a Megaface nevű adatbázisba, amelyet eredetileg az arcfelismerő megoldásokkal kapcsolatos kutatásokhoz hoztak létre. A felvételeket később számos vitatott alkalmazás edzésére is alkalmazták. Köztük volt egy Kínában az ujgurok ellenőrzésére bevetett program.
Gaylor elmondta, hogy a kíváncsisága egy idő után rémületbe csapott át, amikor az új szolgáltatás bevonásával felfedezte, hogy hová kerültek a fotói. Jogilag ugyanakkor nem sokat tehetett, mert a képeket korábban Creative Commons licenc alatt jelentette meg, amely többek között lehetővé tette mások számára azok újbóli felhasználását. Tette ezt azért, mert azt hitte, hogy az internetes információk szabad áramlása többnyire egy pozitív dolog. Most viszont együtt kell élnie a negatív következményekkel.
Az Adam Harvey és Jules LaPlace magánélet-aktivisták által létrehozott Exposing.ai hasonló elven működik, mint egy online kereső. A Flickr rendszerébe feltöltött felvételek internetes címei segítségével ellenőrizhető, hogy az adott fotót alkalmazták-e nyilvános arcfelismerő rendszerek tesztelésére vagy továbbfejlesztésére. A keresés során nem működik arcfelismerő algoritmus, kizárólag a Flickr felhasználói neveket és azonosítókat veszik figyelembe. A folyamat során a rendszer összesen hat képadatbázist néz át, köztük van a több mint 3,5 millió Flickr-felvételt tartalmazó Megaface, a több mint 115 000 fotót felvonultató Divaface és a több mint 31 000 képes Pipa.