Berta Sándor

Az automatizált tömeges biometriai ellenőrzés ellen foglalt állást az Európai Parlament

A szervezet azt akarja, hogy a közterületeken és a határellenőrzéseken tartósan tiltsák be az ilyen rendszereket.

A Európai Parlament 377 igen szavazattal, 248 nem szavazat ellenében és 62 tartózkodás mellett elfogadta azt a határozatát, amelyben rámutat a biometriai ellenőrzésekben, például a mesterséges intelligencia alkalmazások algoritmusaiban vagy az arcfelismerő rendszerekben rejlő kockázatokra. A szervezet hangsúlyozta, hogy az ilyen megoldásoknál szükség van az emberi felügyeletre és az erős jogi kontrollra, hogy megakadályozható legyen a mesterséges intelligencia általi diszkrimináció - különösen a bűnüldözés vagy a határátlépések területén.

Az európai parlamenti képviselők kiemelték, hogy az ilyen ügyekben a végső döntéseket egyszerre több embernek kellene meghoznia, míg az érintett ellenőrzött személyeknek lehetőséget kellene biztosítani arra, hogy jogi eszközökkel élhessenek a meghozott döntések ellen. A határozat része továbbá, hogy csak olyan embereket lenne szabad biometriai rendszerekkel megfigyelni, akikkel kapcsolatban felmerül egy bűncselekmény elkövetésének a gyanúja.

Nem szabad elfelejteni, hogy a biometriai ellenőrzésekre használt fejlesztésekben lévő mesterséges intelligencia hajlamos a diszkriminációra - különösen a kisebbségek, a homoszexuális személyek, az idősek és a nők esetében. A szigorúbb ellenőrzéssel és odafigyeléssel ezek a hiányosságok kiküszöbölhetők. Ezzel párhuzamosan fontos lenne a magán arcfelismerési adatbázisok betiltása is.

Ez utóbbi dolog nem véletlenül került be a határozatba. Tavaly januárban kiderült, hogy a ClearView AI amerikai vállalat több mint 3 milliárd arcfotót töltött le a nyilvánosan hozzáférhető forrásokból, például a Facebook, az Instagram, a LinkedIn, a Twitter, a YouTube és más szolgáltatások rendszereiből.A vállalkozás februárban Kanadával rúgta össze a port, majd áprilisban több jogvédő szervezet és állami hivatal is támadta.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Agyturbinikusz #6
    Akkor te sem itt rontanád a levegőt, hanem egy koton szárítón himbálloznal, vagy jobb esetben egy zsepivel kidobtak volna.
  • DeviloftheHell #5
    pedig a határokon igazán használhatnák, nem is kolbászolnának a kétséges egyedek mindenfelé
  • Gabbbbbbbbbbbb #4
    Az mindegy, hogy milyen okok vezettek el idáig, a végeredmény szuper.
  • Sequoyah #3
    Ha feher embereken tesztelik az ilyen rendszereket, akkor mukodes kozben derul ki hogy feketeken nem mukodik.
    Ha viszont feketeken is tesztelik (meg ugy altalaban minden arcforman, frizuran stb...), akkor meg fejlesztes kozben kiderul hogy nem mukodik, es ki se kerul a piacra.
  • kvp #2
    Teljesen mindegy hogy a fejleszto hibajabol nem tudja megkulonboztetni a fekete arcokat az MI vagy mas okbol, a lenyeg, hogy nem mukodik. Peldaul macskakhoz is van arckifejezest felismero program, de fekete hazimacskakon nem igazan mukodik jol. Egyszeruen a mai szenzorok nem latnak eleg adatpontot a sotet feluleteken.

    Innentol ugy lesz vagy rasszista vagy hasznalhatatlan az MI, hogy vagy nem vizsgalja a tul sotet boru embereket (ekkor hasznalhatatlan) vagy allandoan osszekeveri oket es mindenkit terroristanak nez (ekkor is hasznalhatatlan es meg tobbnnyire artatlanokat is zaklat). Az egyik esetben lyukas a biztonsag, a masik esetben rasszista a viselkedese. Azert ilyen, mert ilyenre programoztak? Nem, egyszeruen a mai szenzorok csak ennyire kepesek.

    Ha egy technologia nem megbizhato es tul sok a hamis negativ es pozitiv, akkor ne is hasznaljuk? A legtobb esetben a valasz igen vagy legalabbis szigoru emberi felugyelet alatt, mert a rendszer technologiailag megbizhatatlan. Az EU gyakorlatilag csak a tenyeket mondta ki hatarozatban. De mar ez is csodaszamba megy.
  • RJoco #1
    Elfogult MI? Na ilyenről sem hallottam még.
    Inkább az MI fejlesztője volt elfogult.
    Megint rossz helyen keresik a problémát, így csak rossz megoldás születhet.