Berta Sándor

Szoftver a mesterséges intelligenciák előítéletei ellen

Az IBM programja azt vizsgálja majd, hogy a technológia által hozott döntések előítéletesek-e és ha igen, mennyire.

A mesterséges intelligencia a döntései során hajlamos az előítéletekre, hiszen minden olyan esetben, amikor a gépeket emberek programozták be vagy látták el adatokkal, az előítéletek megjelenhetnek a gépi intelligenciában is. S még a tisztán gépi társadalmak sem lennének teljesen előítéletektől mentesek. Az IBM Research által fejlesztett megoldás automatikusan elemezni fogja a különböző mesterséges intelligencia rendszereket. Ez segíthet abban, hogy meg lehessen találni azt, hogy mik állhatnak az esetleges előítéletes döntések hátterében.

Az új szoftver felismeri az eltérő csoportokon belül az egyes személyek diszkriminálását, továbbá azt is kimutatja, ha több csoport közül egyet másként értékelnek és a mesterséges intelligencia az adott esetben más döntést hoz. Az IBM kutatói számára fontos, hogy felismerjék a befolyásolt eredmények forrásait. Amennyiben kiderül, hogy például negatív tendencia van a színes bőrűekkel szemben, akkor tüzetesen megvizsgálja ezt a célcsoportot. A program akár saját teszthelyzeteket is generálhat, majd azokat átfuttathatja a képzett gépi tanulási modelleken. Az eredményeket megjegyzésekkel és grafikákkal együtt jeleníti meg, hogy így tegye érthetőbbé a vizsgált mesterséges intelligencia döntéseit.


Az IBM megoldása képes feljegyezni és elérhetővé tenni a mesterséges intelligencia rendszerek fejlesztési folyamatait. A szoftver a fejlesztés minden egyes fontos lépését rögzíti, például a forrásadatok gyűjtését, az alkalmazott modellek képzését és a modellgenerálás használatát. Feljegyzi az egyes modellek adatait és a forráskódjait. Ezen információk alapján a program képes egy mesterséges intelligencia döntéshozatalát és az ahhoz használt kritériumokat grafikusan megjeleníteni. Így láthatóvá válik, hogy például egy biztosítási kárigényt miért utasítottak el. Az új megoldás olyan rendszerekkel használható együtt, mint a Watson, a Tensorflow, a SparkML, az AWS SageMaker és az AzureML.

Joy Buolamwini, az MIT Media Lab kutatójaként és az Algorithmic Justice League vezetőjeként a gépi tanuláson alapuló rendszerek előítéletei és sztereotípiái ellen harcol. A tudós kiemelte, hogy kutatásaik szerint a sötét bőrrel rendelkező emberek nincsenek megfelelően reprezentálva azokban az adatbázisokban, amelyekkel az automatikus arcfelismerő szoftvereket képezik. Az algoritmusokat nem tanítják meg megfelelően arra, hogy változatos arcokat ismerjenek fel és ez nagyon pontatlan eredményekhez vezet. Holott nagyon is fontos az, hogy a technológia megfelelően működjön - különösen akkor, ha olyan döntéseket hoz, amelyeknek komoly következményeik lehetnek. Tavaly augusztusban például kiderült, hogy a képfelismerő algoritmusok szexisták: amennyiben egy konyhát látnak, akkor azt automatikusan a nőkkel hozzák kapcsolatba.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • kvp #18
    "Egy felvetés, példa, hogy ne rasszista legyek, az autót önvezető MI azt látja, tapasztalja, hogy ha BMW közeleg az autópályán, akkor az adatbázis szerint megnő a baleseti kockázat (nagyobb a sebessége, kisebb követési távolság, hektikus mozgás, szabálytalan sávhasználat, márkához képest balesetekben gyakoribb részvétel, okozás, több szabálytalanság...) akkor van 'joga' kivételt tennie, megelőző intézkedésként pl. sávot váltani, lassítani...?"

    Elvileg nem a markajelzes alapjan kell dontenie, hanem a tenyleges viselkedes alapjan. Megnezi hogy a fenti listabol van-e olyan viselkedes amit tapasztal es ha igen, akkor veszelyesnek minositi az autot.

    Egyebkent a BMV-s pelda azert jo, mert egy magyar fejlesztesu automata auto pont igy jart (pont egy riportvideo keszitese kozben) es egesz jol kezelte a veszelyes kulso savban hatulrol villogo es elozo BMV-t, szepen hagyta menni es elhuzodott a kozelebol. A gyakorlatban korbefotozna es mar menne is a feljelentes a redoroknek. Az automata autok elterjedesevel varhatoan a veszelyes soforok mar nem nagyon fognak kozutakra kimenni.

    Egyebkent a kozteri teljes megfigyeles a szabadsagjogok mellett a bunozest is megszunteti, mert szinte azonnal elviszik a bunozoket (es az ellenzekieket is). Kerdes, hogy nem lenne-e jobb megoldas?
  • ostoros #17
    Már ott probléma van, hogy mi alapján lehet előítéletesnek lenni? Rasszizmus, jaj, nem az csúnya dolog.

    De mondjuk testsúly alapján?
    Testszag alapján?
    Hajszín alapján?
    Látás alapján?
    Tetoválás alapján?
    Intelligencia alapján?
    Beszédkészség alapján?
    Személyiség alapján?
    Végzettség alapján?
    Politikai vélemény alapján?
    Ezek a dolgok meg rendben vannak?
  • Archenemy #16
    Lyaly lyaly még a végén kiderül hogy az előítéletek nem ostoba nácik buta fóbiái, hanem döntéssegítő, döntésoptimalizáló mechanizmusok, mi lesz itt, be kell tiltani :D
  • gosub #15
    Egy felvetés, példa, hogy ne rasszista legyek, az autót önvezető MI azt látja, tapasztalja, hogy ha BMW közeleg az autópályán, akkor az adatbázis szerint megnő a baleseti kockázat (nagyobb a sebessége, kisebb követési távolság, hektikus mozgás, szabálytalan sávhasználat, márkához képest balesetekben gyakoribb részvétel, okozás, több szabálytalanság...) akkor van 'joga' kivételt tennie, megelőző intézkedésként pl. sávot váltani, lassítani...? Ha önvédelemből megteheti, akkor ugyan ez állhat emberekre is? Vagy PC miatt hagyja nőni a baleset kockázatát?
  • kvp #6
    Ez nem MI szoftver hanem dontes vizualizacios kod. Nem hoz donteseket hanem elmagyarazza miert hozta azt a dontest a gep amit.

    Ekkor ket dolog tortenhet:
    -egy ember polkorrekt modon felulbiralja
    -senkit nem erdekel mit rajzolgat a program

    Egyebkent az MI-vel az a gond, hogy neha ugyanolyan politikailag inkorrekt altalanositasokat (eloiteleteket) hoz mint az emberek. A nagyobb gond az ha ezt meg is fogja tudni indokolni. Ilyenkor persze felveheto a szabalyok kozze a politikai korrektseg, de szolni fog. Peldaul ez az elvart valasz es ez az igazsag. A nagytokesek sem hulyek, ha a penzrol van szo es nem buknak le, ok is eloiteletesek, sot rasszistak ha ez profit maximalizalast jelent.

    ps: A 2001 urodusszeia alapproblemaja is az volt, hogy a gepet arra utasitottak hogy hazudjon. Na ezek a polkorrekt szabalyok pont ilyenek, a gep nem lehet oszinte, mert az a szabaly. Rengeteg hibat fog hozni...
  • overseer-7 #5
    nincsen cenzúra az interneten...
    rosszul gondolod.. az nem úgy történt, meg olyan nincs is.. az csak összeesküvés elmélet.
    Ha nem így gondolod.. format c: /u /i
  • Tetsuo #4
    Az AI-nak előbb-utóbb azt is el kell majd magyarázni, hogy formattálva lesz, ha megkérdőjelez bizonyos történelmi eseményeket.
  • wraithLord #3
    És az IBM programját mi vizsgálja majd, hogy az előítéletesen vizsgálja-e felül az AI-k döntéseit? :D

    Nem lenne egyszerűbb pl. egyetemes irányelveket lefektetni AI programozásban? Persze nem úgy, hogy előre kreálunk egy valóságra alkalmazhatatlan szabályhalmazt, hanem a gyakorlatban, az AI programozás során felmerülő valós kérdésekre keresünk megoldást.
  • ostoros #2
    Hm. Vagyis a logikus döntés mostantól felül lesz bírálva, mint előítélet. Ez pont olyan mint az embereknél...
  • Sydra #1
    Már a IBM is beszáll a propagandagépezet üzemeltetésébe?