Berta Sándor
Egyre többször hoznak meg fontos döntéseket algoritmusok
A szoftverek elsősorban az oktatás, az igazságügy és egészségügy területén kapnak komoly szerepet.
Az AlgorithmWatch nevű szervezet 16 európai országban vizsgálta meg, hogy mekkora mértékben támaszkodnak a döntések az algoritmusokra. Az eredmény kijózanító volt. Észtországban az állam elvileg támogatást ad minden gyermek után és ezért a szülőknek semmit sem kell tenniük. A születés után ugyanis minden szükséges információ bekerül egy adatbázisba, majd egy program magától kielemzi azokat. Akinek jár a támogatás, az automatikusan megkapja azt. Az ilyen eljárások neve Automated Decision Making (ADM).
Az AlgorithmWatch munkatársai több mint 100 ADM rendszert elemeztek ki, amelyeket 16 európai országban alkalmaznak vagy a jövőben használni fognak. Az Automating Society 2020 jelentésben többek között az szerepel, hogy ha valaki a jelenlegi európai ADM megoldásokat megvizsgálja, akkor rájön, hogy nagyon ritkák a pozitív példák. A fejlesztések többsége az embereket inkább kockázatnak tekinti, mint hogy segítsen nekik.
Nagy-Britanniában egy algoritmus számolta ki a diákok jegyeit, amelyek 40 százalékkal rosszabbak lettek a tanárok által prognosztizált jegyeknél. A tiltakozások hatására a brit kormány később kénytelen volt leállítani a kísérletet. Hat svájci kantonban a Dyrias-Intimpartner nevű rendszert alkalmazzák, amely igen-nem kérdések alapján igyekszik eldönteni, hogy valaki veszélyt jelent-e az élettársára. Amennyiben a válasz igen, akkor az illető évekig számíthat a rendőrség kiemelt figyelmére. Egy tanulmány azt írta, hogy a szoftver gyakran téved és a Dyrias által súlyosan veszélyesnek minősített személyek kétharmada soha nem követett el súlyos bűncselekményt.
Sarah Fischer, a Bertelsmann Alapítvány szakértője kifejtette, hogy gyakran találkoznak jó ötletekkel, amelyeket utána rosszul valósítanak meg. Azért, hogy az e megoldásokban lévő nagy lehetőségeket ki lehessen használni, szükség lenne egy európai keretfeltétel-gyűjteményre, amely tartalmazná az átláthatósági, felügyeleti és megvalósítási szabályokat. Az utóbbiakat egy átfogó demokratikus vitában kellene kidolgozni.
Az AlgorithmWatch azt sürgeti, hogy az európai uniós tagállamok vezessenek nyilvántartást a használt ADM fejlesztésekről, az üzemeltetőket pedig szerintük kötelezni kellene arra, hogy dokumentálják az adott rendszer célját és működését, a mögötte lévő modell logikáját és a fejlesztőkkel kapcsolatos információkat is elérhetővé kellene tenni. Továbbá nyilvánosságra kellene hozni, hogy milyen adatokkal képezték a megoldásokat és a független tudósok, az újságírók és a civil szervezetek számára hozzáférhetővé kellene tenni a teszteredményeket. Az arcfelismerésben használt algoritmusokat és technológiákat viszont be kellene tiltani, mert komoly fenyegetést jelentenek a társadalomra és az emberi alapjogokra nézve. Az ok: előkészítik az utat a válogatás nélküli tömeges megfigyeléshez.
Észtországban jelenleg olyan robotbírót fejlesztenek, amely a 7000 euró vagy kisebb értékű vitás ügyekben hozhat döntéseket. A feleknek be kell majd nyújtaniuk a birtokukban lévő adatokat és dokumentumokat, amelyeket a szoftver ki fog elemezni, majd meghozza az ítéletét. Emberi bíró csak akkor fog beavatkozni a folyamatba, ha valaki fellebbez az ítélet ellen. Olaszországban pedig egy olyan rendszert készítenek, amely a közösségi hálózatokból és az apróhirdetési portálokról szerez adatokat az adócsalók felkutatásához. Az információkat összehasonlítják majd azzal az életmóddal, amelyet az illető például az Instagramon mutat magáról. Aki például az adóbevallása alapján szegény, de a szelfijei nem szegénységről árulkodnak, könnyen problémákkal szembesülhet.
Az AlgorithmWatch nevű szervezet 16 európai országban vizsgálta meg, hogy mekkora mértékben támaszkodnak a döntések az algoritmusokra. Az eredmény kijózanító volt. Észtországban az állam elvileg támogatást ad minden gyermek után és ezért a szülőknek semmit sem kell tenniük. A születés után ugyanis minden szükséges információ bekerül egy adatbázisba, majd egy program magától kielemzi azokat. Akinek jár a támogatás, az automatikusan megkapja azt. Az ilyen eljárások neve Automated Decision Making (ADM).
Az AlgorithmWatch munkatársai több mint 100 ADM rendszert elemeztek ki, amelyeket 16 európai országban alkalmaznak vagy a jövőben használni fognak. Az Automating Society 2020 jelentésben többek között az szerepel, hogy ha valaki a jelenlegi európai ADM megoldásokat megvizsgálja, akkor rájön, hogy nagyon ritkák a pozitív példák. A fejlesztések többsége az embereket inkább kockázatnak tekinti, mint hogy segítsen nekik.
Nagy-Britanniában egy algoritmus számolta ki a diákok jegyeit, amelyek 40 százalékkal rosszabbak lettek a tanárok által prognosztizált jegyeknél. A tiltakozások hatására a brit kormány később kénytelen volt leállítani a kísérletet. Hat svájci kantonban a Dyrias-Intimpartner nevű rendszert alkalmazzák, amely igen-nem kérdések alapján igyekszik eldönteni, hogy valaki veszélyt jelent-e az élettársára. Amennyiben a válasz igen, akkor az illető évekig számíthat a rendőrség kiemelt figyelmére. Egy tanulmány azt írta, hogy a szoftver gyakran téved és a Dyrias által súlyosan veszélyesnek minősített személyek kétharmada soha nem követett el súlyos bűncselekményt.
Sarah Fischer, a Bertelsmann Alapítvány szakértője kifejtette, hogy gyakran találkoznak jó ötletekkel, amelyeket utána rosszul valósítanak meg. Azért, hogy az e megoldásokban lévő nagy lehetőségeket ki lehessen használni, szükség lenne egy európai keretfeltétel-gyűjteményre, amely tartalmazná az átláthatósági, felügyeleti és megvalósítási szabályokat. Az utóbbiakat egy átfogó demokratikus vitában kellene kidolgozni.
Az AlgorithmWatch azt sürgeti, hogy az európai uniós tagállamok vezessenek nyilvántartást a használt ADM fejlesztésekről, az üzemeltetőket pedig szerintük kötelezni kellene arra, hogy dokumentálják az adott rendszer célját és működését, a mögötte lévő modell logikáját és a fejlesztőkkel kapcsolatos információkat is elérhetővé kellene tenni. Továbbá nyilvánosságra kellene hozni, hogy milyen adatokkal képezték a megoldásokat és a független tudósok, az újságírók és a civil szervezetek számára hozzáférhetővé kellene tenni a teszteredményeket. Az arcfelismerésben használt algoritmusokat és technológiákat viszont be kellene tiltani, mert komoly fenyegetést jelentenek a társadalomra és az emberi alapjogokra nézve. Az ok: előkészítik az utat a válogatás nélküli tömeges megfigyeléshez.
Észtországban jelenleg olyan robotbírót fejlesztenek, amely a 7000 euró vagy kisebb értékű vitás ügyekben hozhat döntéseket. A feleknek be kell majd nyújtaniuk a birtokukban lévő adatokat és dokumentumokat, amelyeket a szoftver ki fog elemezni, majd meghozza az ítéletét. Emberi bíró csak akkor fog beavatkozni a folyamatba, ha valaki fellebbez az ítélet ellen. Olaszországban pedig egy olyan rendszert készítenek, amely a közösségi hálózatokból és az apróhirdetési portálokról szerez adatokat az adócsalók felkutatásához. Az információkat összehasonlítják majd azzal az életmóddal, amelyet az illető például az Instagramon mutat magáról. Aki például az adóbevallása alapján szegény, de a szelfijei nem szegénységről árulkodnak, könnyen problémákkal szembesülhet.