• Nagydög
    #20
    Ez azert nem ennyire egyszeru. A neuralis halozatokon alapulo MI-k kicsit bonyolultabbak ennel. Nem tudjuk, egy ilyen rendszer pontosan milyen lepesekben jut egy adott dontesre. Ahogy ez a biologiai agyunknal is igaz. Fogalmunk sincs, pontosan mely neuronjaink milyen allapotot vesznek fel, mikozben eldontjuk, hogy a kepen egy macska van. A neuralis halozatoknal detto.
    A DARPA inditott is egy programot Explainable AI(XAI) neven, hogy az AI ne csak kikopjon egy eredmenyt, de ember szamara erthetoen indokolni is tudja. A neuralis halozatokkal ugyanis az a feneseg, hogy ismerjuk a trening soran bevitt informaciot. Ismerjuk egy kiertekeles eredmenyet, de csak sejtesunk van rola, mi vezett ez utobbihoz.
    Ez azt jelenti, hogy a rendszer mukodeserol csak az eredmeny alapjan tudjuk kepet kapni. Ez macska felismeresnel viszonylag egyszeru, de absztraktabb szituaciok eseten nem biztos, hogy azonnal megitelheto a rendszer egy dontese helyes, vagy sem. Itt jon kepbe, hogy az AI(ahogy az ember is) indokolni tudja, mi alapjan jutott adott dontesre.