Berta Sándor
Nem ismeri fel a gyerekeket a Tesla szoftvere
Az autógyártó tavaly július óta 273 olyan balesetről tud, amelyek összefüggésben voltak az asszisztensrendszerével.
A Tesla Motors Autopilot évek óta komoly problémákkal küzd, nem véletlen, hogy a National Highway Traffic Safety Administration (NHTSA), azaz az amerikai közlekedésbiztonsági hivatal júniusban jelezte, hogy kiterjeszti a szoftverrel kapcsolatos vizsgálatot. Most kiderült, hogy a Tesla Full Self-Driving (FSD) programja halálos veszélyt jelent a gyerekekre, mert nem ismeri fel megfelelően őket. Mindezt egy szoftverszakértő állítja a Twitter-bejegyzésében.
Az elvégzett tesztek során a gyermekeket gyalogosként szimulálták egy hozzájuk hasonló méretű baba segítségével. A bekapcsolt FSD-vel rendelkező Tesla modellek ezután körülbelül 40 kilométer/órás sebességgel hajtottak a baba felé és mindig áthajtottak rajta, ahogy a nyilvánosságra hozott videókon is látható. A teszteket a The Dawn Project végezte, amely a számítógépek és az emberek közötti biztonságos interakcióval foglalkozik. "Elon Musk azt állítja, hogy az FSD szoftver nagyszerű. Nem az" - hangsúlyozta Dan O'Dowd, a The Dawn Project alapítója. A szakember hozzátette, hogy a rendszer minden amerikaira veszélyt jelent.
A The Dawn Project azt szeretné, ha a tesztek megmutatnák az FSD gyengeségeit és bizonyítanák a nyilvánvaló bizonytalanságokat. A cél az, hogy nyomást gyakoroljanak az amerikai politikusokra a szoftver betiltása érdekében és amíg be nem bizonyosodik, hogy az autók O'Dowd szavaival élve "nem kaszálják el a gyerekeket a biztonsági utakon". Érdekesség, hogy az elmúlt időszakban a "The Dawn Project" alapítóját is számos alkalommal kritika érte, mert a cége az önvezető autós rendszerek területén tevékenykedik.
A kérdést azért is érdemes tisztázni, mert a Tesla autói sofőrsegítő rendszere érintett a legtöbb balesetben, tavaly július óta 273 balesetet jelentett le a cég a hatóság felé. Ennyi esetet egyetlen más autógyártó vagy technológiai cég sem jelzett. Összesen tavaly június óta több, mint 500 balesetre került sor. A második helyen a Honda található 90 jelentett balesettel. Ed Markey és Richard Blumenthal demokrata szenátorok levélben közölték az NHTSA-val, hogy az adatok közzététele önmagában nem elég. Sürgették a hivatalt, hogy derítsen fényt erre az irányíthatatlanná vált iparágra, és vezessen be védelmi intézkedéseket a további halálos balesetek megelőzése érdekében.
Jennifer Homendy, az NTSB nevű amerikai közlekedésbiztonsági hivatal vezetője kiemelte, hogy a mostani jelentést óvatosan kell kezelni, mert a Tesla hatalmas mennyiségű, kiváló minőségű adatot gyűjt, ami azt jelentheti, hogy túlreprezentáltak az NHTSA kiadványában. A hatóság elismerte, hogy az adatok csak korlátozottan hasonlíthatók össze, mivel az egyes autógyártók különböző módon követik nyomon a baleseteket.
A Tesla Motors Autopilot évek óta komoly problémákkal küzd, nem véletlen, hogy a National Highway Traffic Safety Administration (NHTSA), azaz az amerikai közlekedésbiztonsági hivatal júniusban jelezte, hogy kiterjeszti a szoftverrel kapcsolatos vizsgálatot. Most kiderült, hogy a Tesla Full Self-Driving (FSD) programja halálos veszélyt jelent a gyerekekre, mert nem ismeri fel megfelelően őket. Mindezt egy szoftverszakértő állítja a Twitter-bejegyzésében.
Az elvégzett tesztek során a gyermekeket gyalogosként szimulálták egy hozzájuk hasonló méretű baba segítségével. A bekapcsolt FSD-vel rendelkező Tesla modellek ezután körülbelül 40 kilométer/órás sebességgel hajtottak a baba felé és mindig áthajtottak rajta, ahogy a nyilvánosságra hozott videókon is látható. A teszteket a The Dawn Project végezte, amely a számítógépek és az emberek közötti biztonságos interakcióval foglalkozik. "Elon Musk azt állítja, hogy az FSD szoftver nagyszerű. Nem az" - hangsúlyozta Dan O'Dowd, a The Dawn Project alapítója. A szakember hozzátette, hogy a rendszer minden amerikaira veszélyt jelent.
A The Dawn Project azt szeretné, ha a tesztek megmutatnák az FSD gyengeségeit és bizonyítanák a nyilvánvaló bizonytalanságokat. A cél az, hogy nyomást gyakoroljanak az amerikai politikusokra a szoftver betiltása érdekében és amíg be nem bizonyosodik, hogy az autók O'Dowd szavaival élve "nem kaszálják el a gyerekeket a biztonsági utakon". Érdekesség, hogy az elmúlt időszakban a "The Dawn Project" alapítóját is számos alkalommal kritika érte, mert a cége az önvezető autós rendszerek területén tevékenykedik.
A kérdést azért is érdemes tisztázni, mert a Tesla autói sofőrsegítő rendszere érintett a legtöbb balesetben, tavaly július óta 273 balesetet jelentett le a cég a hatóság felé. Ennyi esetet egyetlen más autógyártó vagy technológiai cég sem jelzett. Összesen tavaly június óta több, mint 500 balesetre került sor. A második helyen a Honda található 90 jelentett balesettel. Ed Markey és Richard Blumenthal demokrata szenátorok levélben közölték az NHTSA-val, hogy az adatok közzététele önmagában nem elég. Sürgették a hivatalt, hogy derítsen fényt erre az irányíthatatlanná vált iparágra, és vezessen be védelmi intézkedéseket a további halálos balesetek megelőzése érdekében.
Jennifer Homendy, az NTSB nevű amerikai közlekedésbiztonsági hivatal vezetője kiemelte, hogy a mostani jelentést óvatosan kell kezelni, mert a Tesla hatalmas mennyiségű, kiváló minőségű adatot gyűjt, ami azt jelentheti, hogy túlreprezentáltak az NHTSA kiadványában. A hatóság elismerte, hogy az adatok csak korlátozottan hasonlíthatók össze, mivel az egyes autógyártók különböző módon követik nyomon a baleseteket.