Berta Sándor
Algoritmusok döntenek az igazságszolgáltatásban
Az Amerikai Egyesült Államokban kérdőívek és algoritmusok segítségével sorolják be a bűnözőket különböző kockázati kategóriákba.
Napjainkban számos amerikai szövetségi államban algoritmusok ítélik meg a bűnelkövetőket. A programok részben a meglévő és a letartóztatások utáni adatok, részben az adott személyek által elmondottak alapján hozzák meg a döntésüket. Az programok egy kockázati tényezőt adnak meg, amely azt határozza meg, hogy az illető mennyire nagy valószínűséggel lehet visszaeső. Amennyiben a kockázati tényező magas, akkor az adott személyt például nem lehet kedvezménnyel kiengedni a börtönből vagy feltételesen szabadlábra helyezni.
A Pro Publica nevű platform kiderítette ugyanakkor, hogy legalább a használt algoritmusok egyike a bőrszín alapján diszkriminál: az afroamerikai vádlottakat különösen nagy valószínűséggel jövőbeli bűnelkövetőnek minősíti, miközben a fehér vádlottakat alacsonyabb kockázatú jövőbeli bűnözőnek sorolja be.
A Pro Publica megszerzett egy floridai adatcsomagot a Northpointe cég szoftverének tesztelésére. Az összeállítás több mint 7000 olyan személy adatait tartalmazta, akiket 2013-ban és 2014-ben tartóztattak le Broward megyében. Az újságírók ezután megvizsgálták, hogy az érintettek közül ki lett két éven belül visszaeső. Kiderült, hogy az erőszakos bűncselekmények esetében a kockázati tényező egyáltalán nem volt megbízható. Az algoritmus által erőszakos bűnelkövetőknek minősített személyeknek csak a 20 százaléka követett el valóban ilyen bűncselekményt. Amennyiben pedig minden bűncselekményt és szabálysértést figyelembe vettek, akkor a prognózis csak némileg bizonyult megbízhatóbbnak egy érme feldobásánál. Azoknál viszont, akiknél azt jelezték előre, hogy nagy valószínűséggel ismét bűncselekményt fognak elkövetni, 61 százalékban pontosnak bizonyult a prognózis és két éven belül ismét letartóztatták őket.
Bal oldalon egy valószínű visszaeső látható
A legnagyobb problémát a diszkrimináció jelenti. Az afroamerikai személyek sokkal gyakrabban lettek nagyobb kockázatú visszaesőnek vagy bűnelkövetőnek minősítve, mint a fehérek, akiknél ez az arány csak 23,5 százalék volt. A színesbőrűek közel 45 százalékának esetében bizonyult tévesnek az előrejelzés. Ugyanakkor az afroamerikaiak 28, míg a fehérek 47,7 százaléka lett visszaeső.
A Northpointe a tények ellenére kétségbe vonta az eredményeket - mindez csak azért érdekes, mert a vállalat saját adatai alapján végezték el a vizsgálatokat. A cég a rendőrkapitányságoknak 137 kérdésből és megállapításból álló kérdőívet küld ki, ezt minden letartóztatásnál kitöltik. A kérdések között van, hogy az illető tudomása alapján letartóztatták-e már valaha az apját vagy az őt felnevelő személyt, az illető az elmúlt 12 hónapban hányszor költözött, sokat verekedett-e az iskolában vagy hogy a baráti körében mennyien kábítószereznek. Más információkat, például a legmagasabb iskolai végzettséget vagy a munkahely meglétét, illetve korábbi ügyek adatait a rendőrségi és a bírósági aktákból veszik át. A bőrszín nem szerepel ezek között.
Kilenc szövetségi államban a bírók az ítélethirdetések előtt megkapják az előrejelzéseket, míg más államokban az óvadék megállapításában vagy a feltételes szabadulás eldöntésében veszik azokat figyelembe. A rassz miatt torzítást magyarázhatja, hogy nehéz olyan pontszámot generálni, mely nem esik azzal valamilyen szinten egybe; a szegénység, munkanélküliség és a szociálisan perifériára szorultság biztosan növeli azt, ami csökkentheti a pontosságot.
A gyakorlattal Eric Holder egykori amerikai igazságügyi miniszter sem értett egyet, már 2014-ben kritizálta a rendszert. Ő a törvényességet hangsúlyozta és hogy a büntetést a tények, a törvények, a korábbi büntetések, a valóban elkövetett bűncselekmények és minden egyes eset körülményeinek a figyelembevétele mellett kell meghozni. Elutasította azt, hogy olyan tényezőket vegyenek figyelembe, amelyeket egy személy nem tud kontrollálni vagy hogy egy ítélet egy még meg sem történt jövőbeli bűncselekmény elkövetésének valószínűségén alapuljon.
Az algoritmusos rendszer azért nagyon népszerű a tengerentúlon, mert csökkenti a költségeket és megkönnyíti a bíróknak, hogy azokat az elkövetőket felfüggesztett börtönre ítéljék, akik esetében a visszaesési kockázat alacsonynak lett minősítve. A Pro Publica rámutatott, hogy a szoftverek használatával a börtönben ülők száma Észak-Karolinában 2011 és 2014 között háromezerrel csökkent. Csak ez a szövetségi állam 84 millió dollárt takarított meg a kockázati előrejelzések alkalmazásával.
Persze nem ez az egyetlen ilyen rendszer, az Egyesült Államokban tucatnyi hasonlót használnak, cégekét és nonprofit szervezetekét is. 19 elemzőszoftver független vizsgálata alapján kiderült, hogy ezek tesztelését sokszor kizárólag maguk a készítők végzik, teljesítményük közepes, de nem találtak rassz miatti eltéréseket. Probléma viszint, hogy például a próbára bocsátási meghallgatások során a védők csak a végeredményt ismerhetik meg, az ahhoz vezető számítást nem, így nehéz az ellen bármit felhozni. A bírók figyelmét fel is hívják, hogy a pontszám nem azt határozza meg, hogy egy adott személy veszélyes-e; például egy gyerekmolesztálónál jöhet ki alacsony érték, mert van munkája, míg egy alkoholistánál magas, mert hajléktalan. Extrém esetben sokszoros visszaesőknél is lehet nagyon alacsony, ha korábban más államban hajtottak végre bűncselekményt.
Aggodalomra ad okot, hogy több amerikai bírósági ítéletben előfordult, a bíró azért szabott ki súlyosabb büntetést, mert egy szoftver magas kockázatúnak jelezte az elkövetőt. (Emberölés vagy hasonló súlyos bűncselekmények esetében nem használnak ilyet, mert nem merül fel a feltételes szabadlábra helyezés.) Szintén kritika, hogy a bírók valós munkavégzés helyett erre az egyszerűen használható, de látványos eredményt produkálni képes eszközre hivatkoznak.
Napjainkban számos amerikai szövetségi államban algoritmusok ítélik meg a bűnelkövetőket. A programok részben a meglévő és a letartóztatások utáni adatok, részben az adott személyek által elmondottak alapján hozzák meg a döntésüket. Az programok egy kockázati tényezőt adnak meg, amely azt határozza meg, hogy az illető mennyire nagy valószínűséggel lehet visszaeső. Amennyiben a kockázati tényező magas, akkor az adott személyt például nem lehet kedvezménnyel kiengedni a börtönből vagy feltételesen szabadlábra helyezni.
A Pro Publica nevű platform kiderítette ugyanakkor, hogy legalább a használt algoritmusok egyike a bőrszín alapján diszkriminál: az afroamerikai vádlottakat különösen nagy valószínűséggel jövőbeli bűnelkövetőnek minősíti, miközben a fehér vádlottakat alacsonyabb kockázatú jövőbeli bűnözőnek sorolja be.
A Pro Publica megszerzett egy floridai adatcsomagot a Northpointe cég szoftverének tesztelésére. Az összeállítás több mint 7000 olyan személy adatait tartalmazta, akiket 2013-ban és 2014-ben tartóztattak le Broward megyében. Az újságírók ezután megvizsgálták, hogy az érintettek közül ki lett két éven belül visszaeső. Kiderült, hogy az erőszakos bűncselekmények esetében a kockázati tényező egyáltalán nem volt megbízható. Az algoritmus által erőszakos bűnelkövetőknek minősített személyeknek csak a 20 százaléka követett el valóban ilyen bűncselekményt. Amennyiben pedig minden bűncselekményt és szabálysértést figyelembe vettek, akkor a prognózis csak némileg bizonyult megbízhatóbbnak egy érme feldobásánál. Azoknál viszont, akiknél azt jelezték előre, hogy nagy valószínűséggel ismét bűncselekményt fognak elkövetni, 61 százalékban pontosnak bizonyult a prognózis és két éven belül ismét letartóztatták őket.
Bal oldalon egy valószínű visszaeső látható
A legnagyobb problémát a diszkrimináció jelenti. Az afroamerikai személyek sokkal gyakrabban lettek nagyobb kockázatú visszaesőnek vagy bűnelkövetőnek minősítve, mint a fehérek, akiknél ez az arány csak 23,5 százalék volt. A színesbőrűek közel 45 százalékának esetében bizonyult tévesnek az előrejelzés. Ugyanakkor az afroamerikaiak 28, míg a fehérek 47,7 százaléka lett visszaeső.
A Northpointe a tények ellenére kétségbe vonta az eredményeket - mindez csak azért érdekes, mert a vállalat saját adatai alapján végezték el a vizsgálatokat. A cég a rendőrkapitányságoknak 137 kérdésből és megállapításból álló kérdőívet küld ki, ezt minden letartóztatásnál kitöltik. A kérdések között van, hogy az illető tudomása alapján letartóztatták-e már valaha az apját vagy az őt felnevelő személyt, az illető az elmúlt 12 hónapban hányszor költözött, sokat verekedett-e az iskolában vagy hogy a baráti körében mennyien kábítószereznek. Más információkat, például a legmagasabb iskolai végzettséget vagy a munkahely meglétét, illetve korábbi ügyek adatait a rendőrségi és a bírósági aktákból veszik át. A bőrszín nem szerepel ezek között.
Kilenc szövetségi államban a bírók az ítélethirdetések előtt megkapják az előrejelzéseket, míg más államokban az óvadék megállapításában vagy a feltételes szabadulás eldöntésében veszik azokat figyelembe. A rassz miatt torzítást magyarázhatja, hogy nehéz olyan pontszámot generálni, mely nem esik azzal valamilyen szinten egybe; a szegénység, munkanélküliség és a szociálisan perifériára szorultság biztosan növeli azt, ami csökkentheti a pontosságot.
A gyakorlattal Eric Holder egykori amerikai igazságügyi miniszter sem értett egyet, már 2014-ben kritizálta a rendszert. Ő a törvényességet hangsúlyozta és hogy a büntetést a tények, a törvények, a korábbi büntetések, a valóban elkövetett bűncselekmények és minden egyes eset körülményeinek a figyelembevétele mellett kell meghozni. Elutasította azt, hogy olyan tényezőket vegyenek figyelembe, amelyeket egy személy nem tud kontrollálni vagy hogy egy ítélet egy még meg sem történt jövőbeli bűncselekmény elkövetésének valószínűségén alapuljon.
Az algoritmusos rendszer azért nagyon népszerű a tengerentúlon, mert csökkenti a költségeket és megkönnyíti a bíróknak, hogy azokat az elkövetőket felfüggesztett börtönre ítéljék, akik esetében a visszaesési kockázat alacsonynak lett minősítve. A Pro Publica rámutatott, hogy a szoftverek használatával a börtönben ülők száma Észak-Karolinában 2011 és 2014 között háromezerrel csökkent. Csak ez a szövetségi állam 84 millió dollárt takarított meg a kockázati előrejelzések alkalmazásával.
Persze nem ez az egyetlen ilyen rendszer, az Egyesült Államokban tucatnyi hasonlót használnak, cégekét és nonprofit szervezetekét is. 19 elemzőszoftver független vizsgálata alapján kiderült, hogy ezek tesztelését sokszor kizárólag maguk a készítők végzik, teljesítményük közepes, de nem találtak rassz miatti eltéréseket. Probléma viszint, hogy például a próbára bocsátási meghallgatások során a védők csak a végeredményt ismerhetik meg, az ahhoz vezető számítást nem, így nehéz az ellen bármit felhozni. A bírók figyelmét fel is hívják, hogy a pontszám nem azt határozza meg, hogy egy adott személy veszélyes-e; például egy gyerekmolesztálónál jöhet ki alacsony érték, mert van munkája, míg egy alkoholistánál magas, mert hajléktalan. Extrém esetben sokszoros visszaesőknél is lehet nagyon alacsony, ha korábban más államban hajtottak végre bűncselekményt.
Aggodalomra ad okot, hogy több amerikai bírósági ítéletben előfordult, a bíró azért szabott ki súlyosabb büntetést, mert egy szoftver magas kockázatúnak jelezte az elkövetőt. (Emberölés vagy hasonló súlyos bűncselekmények esetében nem használnak ilyet, mert nem merül fel a feltételes szabadlábra helyezés.) Szintén kritika, hogy a bírók valós munkavégzés helyett erre az egyszerűen használható, de látványos eredményt produkálni képes eszközre hivatkoznak.