• kvp
    #3
    Az MI eseten nem konkretan rasszizmusrol van szo, hanem az eloiteletekrol. A mai MI-k alapvetoen csak statiksztikai modellekbol dolgozo szakertoi rendszerek. Tehat a bevitt adatok alapjan allitanak elo statisztikai adatokat es ezek alapjan probalnak az ujonnan beerkezo adatokrol kovetkezteteseket levonni. Ez szo szerint az eloiteletek matematikai definicioja. A mai ugynevezett MI-k gyakorlatilag nagyon fejlett eloitelet tablazatok.

    Innentol ha megfogalmazzuk azt a szabalyt, hogy egy MI nem lehet eloiteletes, akkor gyakorlatilag harom lehetoseg marad: Vagy nem hasznaljuk vagy eloiteletektol mentes adathalmazokon tanitjuk be. A masodik viszont azt jelenti, hogy semmire nem fog tudni ertekelheto valaszt adni, mert nem lesz mibol eloiteleteket gyartania.

    A harmadik lehetoseg az, hogy hamis eloiteleteket viszunk bele, tehat mondjuk egy hitelbiralati betanito adatbazisban a kozeposztalybeli dolgozo feher fefiakat tesszuk meg a legrosszabb adosnak. (valojaban ok lennenek a legjobbak, de ez ugyebar rasszizmus) Ekkor az MI az elvart modon a nem feher, nem dolgozo, nem ferfiakat fogja peferalni es minel tobb tetel felel meg, annal jobb adosnak latja oket. Pl. mondjuk az USA-ban az uj eloitelet mentes MI dontese alapjan egy vagyonnal nem rendelkezo, fekete, nem dolgozo no nagyobb esellyel kapja meg a hitelt. Persze gazdasagi szempontbol latszik, hogy az igy kihelyezett penz gyakorlatilag elveszik mert az illetonek eselye sincs visszafizetni azt, de teljesul az equity szabalya. Ahogy a programozok mondjak: garbage in, garbage out.

    Szoval vagy eloiteletesek lesznek az MI-k vagy direkt hibas dontesek meghozatalara tanitjuk be oket. Ez is egyfajta MI, ugy hivjak hogy artificial stupidity.