Berta Sándor
Kevésbé előítéletes lehet a mesterséges intelligencia
Mindenki életére hatással lehet, ha a technológián alapuló algoritmusok igazságosabbak lesznek.
Ismert tény, hogy ha a képfelismerő algoritmusok egy konyhát érzékelnek, akkor azt automatikusan a nőkkel hozzák kapcsolatba és például a további ajánlásoknál így kezelik a felhasználót. A számítógépek és a szoftverek az emberek által létrehozott adatbázisokból és mintákból tanulnak, így az emberek előítéleteit is átveszik. Joy Buolamwini, az MIT Media Lab kutatója és az Algorithmic Justice League vezetője, a szervezet a gépi tanuláson alapuló rendszerek előítéletei és sztereotípiái ellen harcol. Hasonlóképpen tesz az IBM programja is, amely azt vizsgálja, hogy a technológia által hozott döntések előítéletesek-e és ha igen, mennyire. A kérdés azért is fontos, mert egyre többször hoznak meg fontos döntéseket algoritmusok, amelyek különösen az oktatás, az igazságügy és egészségügy területén kapnak komoly szerepet. Szintén az előítéletes algoritmusok ellen küzd a Google.
Az MIT szakértői megállapították, hogy az általuk megvizsgált igazságügyi, banki és más algoritmusok esetenként előítéletesek például az alacsony jövedelműekkel szemben, ha az érintettek hitelt kérnek, állásajánlatra jelentkeznek vagy bíróság előtt állnak. Egy szegényebb személy például kisebb eséllyel fog óvadék ellenében szabadulni az előzetes letartóztatásból.
A kutatók ugyanakkor nem csak tanulmányozták az ilyen eseteket, hanem kifejlesztettek a mesterséges intelligenciához egy programozási nyelvet is, amely az eddigieknél pontosabban és gyorsabban tudja megállapítani, hogy egy adott algoritmus igazságosan járt-e el egy ügyben vagy sem. A Sum Product Probabilistic Language (SPPL) elsősorban azért készült, hogy lehetővé tegye a mesterséges intelligencia rendszerek egyszerűbb kifejlesztését. Az SPPL már számos sikert könyvelt el az adattisztítás és az automatizált adatmodellezés területén.
Feras Saad, az MIT doktorandusza rámutatott, hogy ugyan vannak már hasonló fejlesztések, de az ő rendszerük bizonyos modellekre van specializálva és optimalizálva, így ezerszer gyorsabban tud megoldásokat szállítani. Az SPPL így gyorsan és pontosan tud válaszolni olyan kérdésekre, mint: mennyire valószínű, hogy az adott modell egy 40 évesnél idősebb személynek is hitelt fog ajánlani, vagy jelenthet-e problémát egy elbírálásnál, ha az illető bevándorló vagy sem.
A fejlesztést vezető Vikash Mansinghka leszögezte, hogy az SPPL megmutatja, hogy a pontos valószínűségi következtetések elkészítése az ezzel foglalkozó szoftverek esetében nem csupán elméletben, hanem a gyakorlatban is lehetséges.
Ismert tény, hogy ha a képfelismerő algoritmusok egy konyhát érzékelnek, akkor azt automatikusan a nőkkel hozzák kapcsolatba és például a további ajánlásoknál így kezelik a felhasználót. A számítógépek és a szoftverek az emberek által létrehozott adatbázisokból és mintákból tanulnak, így az emberek előítéleteit is átveszik. Joy Buolamwini, az MIT Media Lab kutatója és az Algorithmic Justice League vezetője, a szervezet a gépi tanuláson alapuló rendszerek előítéletei és sztereotípiái ellen harcol. Hasonlóképpen tesz az IBM programja is, amely azt vizsgálja, hogy a technológia által hozott döntések előítéletesek-e és ha igen, mennyire. A kérdés azért is fontos, mert egyre többször hoznak meg fontos döntéseket algoritmusok, amelyek különösen az oktatás, az igazságügy és egészségügy területén kapnak komoly szerepet. Szintén az előítéletes algoritmusok ellen küzd a Google.
Az MIT szakértői megállapították, hogy az általuk megvizsgált igazságügyi, banki és más algoritmusok esetenként előítéletesek például az alacsony jövedelműekkel szemben, ha az érintettek hitelt kérnek, állásajánlatra jelentkeznek vagy bíróság előtt állnak. Egy szegényebb személy például kisebb eséllyel fog óvadék ellenében szabadulni az előzetes letartóztatásból.
A kutatók ugyanakkor nem csak tanulmányozták az ilyen eseteket, hanem kifejlesztettek a mesterséges intelligenciához egy programozási nyelvet is, amely az eddigieknél pontosabban és gyorsabban tudja megállapítani, hogy egy adott algoritmus igazságosan járt-e el egy ügyben vagy sem. A Sum Product Probabilistic Language (SPPL) elsősorban azért készült, hogy lehetővé tegye a mesterséges intelligencia rendszerek egyszerűbb kifejlesztését. Az SPPL már számos sikert könyvelt el az adattisztítás és az automatizált adatmodellezés területén.
Feras Saad, az MIT doktorandusza rámutatott, hogy ugyan vannak már hasonló fejlesztések, de az ő rendszerük bizonyos modellekre van specializálva és optimalizálva, így ezerszer gyorsabban tud megoldásokat szállítani. Az SPPL így gyorsan és pontosan tud válaszolni olyan kérdésekre, mint: mennyire valószínű, hogy az adott modell egy 40 évesnél idősebb személynek is hitelt fog ajánlani, vagy jelenthet-e problémát egy elbírálásnál, ha az illető bevándorló vagy sem.
A fejlesztést vezető Vikash Mansinghka leszögezte, hogy az SPPL megmutatja, hogy a pontos valószínűségi következtetések elkészítése az ezzel foglalkozó szoftverek esetében nem csupán elméletben, hanem a gyakorlatban is lehetséges.