Ugyanazokat a hibákat követik el az emberek és a gépek

A felhasználók ugyanúgy hajlamosak arra, hogy tévesen azonosítsanak egyes objektumokat, mint a szoftverek és algoritmusok.

A Johns Hopkins Egyetem kutatói rámutattak, hogy az emberek és a gépek ugyanazokat a hibákat követhetik el. Chaz Firestone, az intézmény munkatársa kijelentette, hogy normális esetekben a kutatási területükön arra veszik rá a számítógépeket, hogy úgy gondolkozzanak, mint az emberek. A legutóbbi projektjükben viszont ennek pont az ellenkezőjét tették.

A szakértők 1800 személynek mutattak meg különböző olyan felvételeket, amelyek korábban már a számítógépeket is megtévesztették. A felhasználók két lehetséges válasz közül dönthettek és a kapott eredmények alapján az esetek 75 százalékában ugyanarra a következtetésre jutottak, mint a számítógépek. A következő lépés az volt, hogy a megkérdezetteknek a számítógépek első és második válaszai közül kellett választaniuk. 91 százalékuk döntött az először megadott válaszok mellett. Érdekes volt megfigyelni azt, hogy az emberek hajlamosak a mesterséges intelligenciához hasonló döntést hozni. Mindebből Firestone arra a következtetésre jutott, hogy a felhasználók hasonlóan gondolkodnak, mint a gépek, ha ugyanabba a szituációba kerülnek.


Abszrakt ábrákat a gép pávaként, iskolabuszként vagy közlekedési lámpaként azonosít

A projekttel megerősítést nyert, hogy bár a robotautók is félreértelmezik például a közlekedési táblákat, de sok esetben az emberektől sem várható más. Az már 2017 augusztusában kiderült, hogy egyszerűen megtéveszthetők az autonóm gépkocsik. A Washingtoni, a Michigani, a Stony Brook és a Berkeley Egyetem tudósaiból álló csoport rájött arra, hogy elegendő a közlekedési táblákat, illetve azok egyes részeit vagy betűit egyszerűen leragasztani és így máris téves információk jutnak el az önállóan közlekedő járművekhez.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • kvp #6
    "Valoszinuleg meglevo convolutional neural networkoket hasznaltak, amikben valahol egy softmax fuggveny vegen megjelenik a valoszinuseg is, csak egy nyulfarknyi cikkben ezt itt nyilvan nem reszleteztek."

    Mivel a pszihologiai kar vegezte a kutatast, ezert gondolom ignoraltak a konfidencia ertekeket es a teszt az emberektol is ezt varja el. Ha eles kornyezeti adatokkal akartak volna tesztelni az altalad felsorolt teszteseteket is hasznalhattak volna. Pl. rosszul lathato kresztablakat.

    Egyebkent mar kozel 20 eve is neuralis halozatokat es pl. CNN alapu optical flow-t hasznaltak erre a celra. En pl. egy fuzzy logikat hasznalo szurot tettem a kimeneti ertekekre (szimbolum, konfidencia parok) es megengedtem hogy a valaszok kozott legyen olyan hogy nem tudom mi, de van ott valami. Jelen esetben ez kozlekedesi peldaval pl. 'valoszinuleg egy tabla de nem latom milyen' valasz lenne.

    Gondom szandekosan hasznalnak buta algoritmust, majd az emberektol is elvarjak hogy butan viselkedjenek. Egyebkent nem lenne eleg egyertelmu az eredmeny.

    Egyebkent hasonlo viselkedest en is lattam anno, a teszt robot egyszeruen nem latta az ablakuveget es allandoan at akart menni rajta az ablakhoz tolt asztalrol a parkanyon at. Az uvegre ragasztott szigszallag csikok megoldottak a problemat (az asztal szelet magatol felismerte). A madarak es a kisfelbontasu (vga) webkamerak mar csak ilyenek.

    Azota eltelt majd 20 ev es sokat javult a gepi latas. Viszont a felbetepett stop tabla mar akkor se volt kihivas egy neuralis pattern matcher-nek. Persze a szegmentaciot megtamogattam egy melysegi terkeppel, amit a sztereokepbol generalt. Igy a melysegi terkep korbevagta a felismerendo objektumok korvonalait. Aztan mehetett a normalizalt meretu kepre a database match forma es textura alapjan. Meglepoen egyszeru es megbizhato megoldas. Ha a textura match bizonytalan, attol meg latszik hogy mekkora es merre mozog, tehat legalabb nekimenni nem fog semminek a robot amit lat. Gyakorlati esetben ilyenkor lassu haladas es a szemek meresztese van, addig amig kozelebbrol fel nem ismerjuk az ismeretlen targyat vagy el nem hagyjuk. Ezt egy robot is tudja ha megengedik neki mint opciot es leirjak mikor erdemes ezt a strategiat valasztani.
  • duke #3
    "Ugyanazokat a hibákat követik el az emberek és a gépek "

    Azert ketlem, hogy reszegen mobiltelefonalas kozben, a megengedett sebeseg felett, az ellenkezo savba athajtva utkoznenek. Mert az embernel ez tipikus baleset.
  • Nos #2
    Szerintem kicsit felreertetted mirol szol a cikk. Nem azt vizsgaltak, hogy hogyan lehet javitani ezeken az algoritmusokon, hanem azt, hogy a mar meglevo algoritmusok altal elkovetett hibak olyanok-e amilyeneket az ember is elkovet, vagy olyan esetekben teved-e a gep, amikor az ember is tevedne. Es arra jutottak (szerintem nem annyira meglepo, de nem is trivialis modon) hogy igen, hasonlo szitukban tevednek. Bar a cikk nem ter ki ra, de szerintem nem a regen meglevo algoritmusokat vizsgaltak, mert kelloen valtozatos kornyezetben eleg rosszak, foleg ha nem csak karaktert kell felismerni, hanem takarasban embert, elozo autot, rossz szogben levo faval felig takart tablat, utra tevedt kutyat ... Valoszinuleg meglevo convolutional neural networkoket hasznaltak, amikben valahol egy softmax fuggveny vegen megjelenik a valoszinuseg is, csak egy nyulfarknyi cikkben ezt itt nyilvan nem reszleteztek.
  • kvp #1
    A normalisabb algoritmusok megadnak a talalatok melle egy-egy konfidencia erteket is, ami azt hatarozza meg hogy az algoritmus szerint mennyire megbizhato a valasz. Egy egyszeru megbizhatosagi szurovel be lehet allitani, hogy a rendszer csak a megbizhato valszokat vegye figyelembe, tobb jonak tuno valasz eseten a szigorubbat (tehat piros vagy sarga lampa eseten magara vonatkozoan a pirosat, masok eseten a sargat) valassza, teljes bizonytalansag eseten pedig ovatos modba kapcsoljon.

    A tablak felismeresenel pedig az optikai karakterfelismeresnel is hasznalt algoritmus a nyero, ami kepes zaj meglege (pl. faxolt, fenymasolt vagy kopott betuju irogepen keszult szoveg) eseten is megtalalni a jo valaszt. Igy ha egy tabla kepebol tetszoleges mennyisegu pixelt tavolitunk el (atragasztassal, kosszal, stb.), akkor folyamatosan csokkeni fog a valasz megbizhatosagi erteke, de mindenkeppen felismeri amig egy bizonyos felismeresi szint ala nem esik a kep minosege. Persze addigra mar regen a megbizhatatlan tartomanyban van a valasz.

    A fenti video eseteben egy ilyen 'okos' algoritmus a ket valasztasi lehetosegbol kivetel nelkul mindig az 'egyik sem' valaszt adna.

    ps; A fenti megoldasok mar jo 30 eve elerheto es ismert algoritmusokat jelentenek, tehat az, hogy a tudosok nem hajlandoak hasznalni oket nem jelenti azt, hogy a mernokok nem epitik be oket a valodi rendszerekbe. Persze egy egyszeru es mukodo szoftverbol nehez lenne jo pszihologiai tanulmanyt irni. (az ilyen jellegu kutatasokat szinte soha nem a mernoki karok vegzik)