Berta Sándor
Könnyen becsapható a Tesla autóinak kamerarendszere
A szoftvert egy 5 centiméteres ragasztószalaggal át lehet verni.
A McAfee biztonsági kutatói a Tesla asszisztensrendszerét vizsgálták, hogy az mennyire játszható ki. Nos, kiderült, hogy a közúti forgalomban nem elegendő az, hogy ha az alkalmazott megoldások szó szerint értelmezik a környezetüket, hanem fontos az is, hogy ne legyenek megtéveszthetők. Az emberi sofőrök nem csupán a környezetükre figyelnek, hanem képesek arra is, hogy különböző szituációkat is meg tudjanak becsülni. Ez oda vezet, hogy egy adott környezetben a durva hibákat inkább különleges problémának látják és annak megfelelően kezelik. A valóság ilyen jellegű finom érzékelése az automatizált rendszerek esetében csak nagyon ritkán figyelhető meg.
A különböző helyzetek és hibák nem megfelelő érzékelése és kezelése komoly biztonsági problémákhoz vezethet. A McAfee biztonsági szakemberei a kísérletükben a Tesla Model X és Model S típusú, 2016-os járműveit és az abba beszerelt Mobileye EyeQ3 kamerarendszert tanulmányozták. Az utóbbi többek között a közlekedési táblák felismeréséért felel és látja el az asszisztensrendszert a szükséges információkkal.
A kutatók egy közlekedési táblán, amely a maximális sebességet 35 mérföld/órában határozta meg, a hármas számot leragasztották egy mindössze 5 centiméter hosszú fekete ragasztószalaggal. Miközben az emberek továbbra is megfelelően értelmezték a táblát, addig a Tesla képelemzője úgy vélte, hogy a maximális sebesség nem 35, hanem 85 mérföld lehet óránként. Mindez azt eredményezte, hogy a vezetést segítő asszisztens gyorsítani kezdte a gépkocsit.
Amennyiben egy emberi vezető tévesen értelmezte volna a táblát, akkor sem tartott volna észszerűnek egy ilyen mértékű sebességkorlátozást és úgy vélte volna, hogy minden bizonnyal egy hibáról van szó. Egy számítógép viszont, amelynek hiányoznak az átfogó "élettapasztalatai", nem tud megfelelő következtetésekre jutni. Persze a probléma nem csak a Tesla technológiáját és rendszereit érinti, még akkor sem, hogy ha az aktuális kísérlet a gyártó megoldására vonatkozott.
Hasonlót egyébként már több, mint két éve, 2017 augusztusban is vizsgáltak. Akkor a Washingtoni, a Michigani, a Stony Brook és a Berkeley Egyetem tudósaiból álló csoport rájött arra, hogy elegendő a közlekedési táblákat, illetve azok egyes részeit vagy betűit egyszerűen leragasztani és így máris téves információk jutnak el az önállóan közlekedő gépkocsikhoz. 2018 februárban szintén megerősítette egy kutatási projekt azt, hogy félreértelmezik a közlekedési táblákat a robotjárművek. A Princeton és a Purdue Egyetem munkatársai szerint egy ilyen jellegű támadás 90 százalékban sikeres lehet, még akkor is, ha a fejlesztők nem tekinthetnek be az adott algoritmus forráskódjába.
A McAfee biztonsági kutatói a Tesla asszisztensrendszerét vizsgálták, hogy az mennyire játszható ki. Nos, kiderült, hogy a közúti forgalomban nem elegendő az, hogy ha az alkalmazott megoldások szó szerint értelmezik a környezetüket, hanem fontos az is, hogy ne legyenek megtéveszthetők. Az emberi sofőrök nem csupán a környezetükre figyelnek, hanem képesek arra is, hogy különböző szituációkat is meg tudjanak becsülni. Ez oda vezet, hogy egy adott környezetben a durva hibákat inkább különleges problémának látják és annak megfelelően kezelik. A valóság ilyen jellegű finom érzékelése az automatizált rendszerek esetében csak nagyon ritkán figyelhető meg.
A különböző helyzetek és hibák nem megfelelő érzékelése és kezelése komoly biztonsági problémákhoz vezethet. A McAfee biztonsági szakemberei a kísérletükben a Tesla Model X és Model S típusú, 2016-os járműveit és az abba beszerelt Mobileye EyeQ3 kamerarendszert tanulmányozták. Az utóbbi többek között a közlekedési táblák felismeréséért felel és látja el az asszisztensrendszert a szükséges információkkal.
A kutatók egy közlekedési táblán, amely a maximális sebességet 35 mérföld/órában határozta meg, a hármas számot leragasztották egy mindössze 5 centiméter hosszú fekete ragasztószalaggal. Miközben az emberek továbbra is megfelelően értelmezték a táblát, addig a Tesla képelemzője úgy vélte, hogy a maximális sebesség nem 35, hanem 85 mérföld lehet óránként. Mindez azt eredményezte, hogy a vezetést segítő asszisztens gyorsítani kezdte a gépkocsit.
Amennyiben egy emberi vezető tévesen értelmezte volna a táblát, akkor sem tartott volna észszerűnek egy ilyen mértékű sebességkorlátozást és úgy vélte volna, hogy minden bizonnyal egy hibáról van szó. Egy számítógép viszont, amelynek hiányoznak az átfogó "élettapasztalatai", nem tud megfelelő következtetésekre jutni. Persze a probléma nem csak a Tesla technológiáját és rendszereit érinti, még akkor sem, hogy ha az aktuális kísérlet a gyártó megoldására vonatkozott.
Hasonlót egyébként már több, mint két éve, 2017 augusztusban is vizsgáltak. Akkor a Washingtoni, a Michigani, a Stony Brook és a Berkeley Egyetem tudósaiból álló csoport rájött arra, hogy elegendő a közlekedési táblákat, illetve azok egyes részeit vagy betűit egyszerűen leragasztani és így máris téves információk jutnak el az önállóan közlekedő gépkocsikhoz. 2018 februárban szintén megerősítette egy kutatási projekt azt, hogy félreértelmezik a közlekedési táblákat a robotjárművek. A Princeton és a Purdue Egyetem munkatársai szerint egy ilyen jellegű támadás 90 százalékban sikeres lehet, még akkor is, ha a fejlesztők nem tekinthetnek be az adott algoritmus forráskódjába.