SG.hu
A Tesla pontosan tudta, hogy nem jól működik az Autopilot rendszere
Egy floridai bíró szerint Elon Musk, a Tesla vezérigazgatója és más vezetők tudták, hogy az autógyártó járművei hibás Autopilot rendszerrel rendelkeznek, de mégis megengedték, hogy az autókat veszélyes módon vezessék.
Egy floridai bíró, Reid Scott úgy döntött, hogy "ésszerű bizonyítékok" alapján megállapítható, hogy a Tesla és vezérigazgatója, Elon Musk tudott az Autopilot rendszer hibáiról, és nem javította ki azokat. A Tesla mérnökeinek tanúvallomásai és belső dokumentumok azt mutatták, hogy Musk "szorosan részt vett" a Tesla Autopilot programjában, és "tisztában volt" egy néha halálos kimenetelű hibával, miszerint az Autopilot többször nem észlelte a keresztirányú forgalmat, írta Scott. "Tudva, hogy az Autopilot rendszer korábban már meghibásodott, korlátozásokat vezettek be rá", és a Tesla Autopilot rendszerének egyik mérnöke szerint "nem volt módosítva, a Tesla mégis engedélyezte, hogy az Autopilot rendszert olyan utakon kapcsolják be, amelyeken keresztirányú forgalommal érintett területek voltak" - írta Scott.
Ennélfogva a bíró helyt adott Kim Banner kérelmének, miszerint kártérítési pert szeretne indítani a Tesla ellen szándékos mulasztás és súlyos gondatlanság miatt. Férje, Jeremy 2019-ben halt meg, amikor "az általa vezetett Tesla Model 3 egy 18 kerekű teherautó pótkocsija alá hajtott, amely elékanyarodott és levágta a jármű tetejét". Az Autopilot állítólag nem figyelmeztette Jeremyt, vagy nem reagált olyan módon, amellyel elkerülhető lett volna az ütközés, például nem fékezett vagy nem kormányozta ki a járművet a veszélyből - áll Banner panaszában. A bíró a leginkább aggasztóbbnak azt tartja, hogy a Tesla mérnökei elmondták, hogy Banner 2019-es halálát és egy másik floridai sofőr, Joshua Brown 2016-os "kísértetiesen hasonló" halálát követően az autógyártó semmit sem tett az Autopilot keresztirányú forgalmat érzékelő rendszerének frissítése érdekében. A Tesla az Autopilot funkciót ma is biztonságosnak marketingeli a sofőrök számára - írta Scott.
"Joggal vonható le az a következtetés, hogy a Tesla a rendelkezésére álló információkat figyelmen kívül hagyta azzal a céllal, hogy a járműveket az autonómia címkéje alatt értékesítse" - írta Scott. Scott megjegyezte, hogy az Autopilot Tesla általi marketingje fontos szempont, rámutatva egy 2016-os videóra, amely még mindig a Tesla weboldalán található, ahol a Tesla szerint "az autó magától vezet". "Ebből a videóból hiányzik bármilyen arra utaló jel, hogy ez a technológia jelenleg még nem létezik a piacon" - írta Scott.
Hiányzik ebből a videóból minden arra utaló jel, hogy ez a technológia jelenleg nem létezik
Scott döntése nagy csapásnak számít a Tesla számára, amely tagadta a felelősséget Banner haláláért, azzal érvelve, hogy emberi hiba történt, mivel "a használati utasítás és a megállapodás kattintással elfogadás kellőképpen figyelmeztette" a Tesla-tulajdonosokat az Autopilot korlátaira. A bíró azt írta, hogy a Tesla ezt az érvet a tárgyaláson majd előadhatja, de ebben a szakaszban az esküdtszék a rendelkezésre álló bizonyítékok birtokában ésszerűen bűnösnek találhatja a Teslát mind szándékos kötelességszegésben, mind súlyos gondatlanságban. Egy ilyen ítélet eredményeként a Tesla hatalmas kártérítést fizethet, amely szakértők szerint a társaság hírnevét is óriási mértékben ronthatná. A tárgyaláson Banner valószínűleg azzal fog érvelni, hogy a figyelmeztetések nem voltak megfelelőek. Banner ügyvédje, Lake Trey Lytal III elmondta, hogy "rendkívül büszkék erre a bizonyítékokon alapuló eredményre".
Annak ellenére, hogy a Tesla belső e-mailjeiben Muskot az Autopilot-csapat "de facto vezetőjének" nevezték, nem tett tanúvallomást Banner ügyében, amely az egyik első alkalom volt, amikor a Teslának meg kellett védenie magát azokkal az állításokkal szemben, amelyek szerint az Autopilot végzetes hibákat tartalmaz. Augusztusban a Tesla azzal is megpróbált kárelhárítást végezni, hogy igyekezett titokban tartani alkalmazottai tanúvallomásainak átiratát és más dokumentumokat. Scott végzéséből mostanra világossá vált, hogy a Tesla miért tarthatta ezeket a tanúvallomásokat és dokumentumokat annyira terhelőnek.
A Tesla Autopilot funkcióját évek óta vizsgálják. 2021-ben, amikor a vállalat kísérletképpen elkezdte tesztelni a funkciót az általa biztonságosnak ítélt vezetőkkel, az USA komoly vizsgálatot indított, mert 11 Tesla vészhelyzeti járművekkel ütközött. Ugyanebben az évben a Consumer Reports megállapította, hogy az Autopilot könnyen manipulálható úgy, hogy vezető nélkül is működjön, ami további biztonsági aggályokat vetett fel. 2022 nyarára az amerikai Nemzeti Közúti Közlekedésbiztonsági Hivatal (NHTSA) 273 olyan balesetet dokumentált, amelyekben Teslák Autopilot rendszert használtak. A szezon őszén a szövetségiek idejét látták büntetőjogi vizsgálat indításának a Tesla Autopilot állításai miatt, "azt vizsgálva, hogy a Tesla megtévesztette-e a fogyasztókat, a befektetőket és a szabályozó hatóságokat azzal, hogy megalapozatlan állításokat tett a vezetőtámogató technológia képességeiről".
A Tesla gondjai 2023-ban is folytatódtak. Az év azzal kezdődött, hogy a Tesla bejelentette a befektetőinek, hogy az Igazságügyi Minisztérium vizsgálatot folytat ellene, és az Autopilot és Full Self Driving funkciókkal kapcsolatos dokumentumokat kértek be. Nagyjából ugyanebben az időben derült ki, hogy a Tesla 2016-os önvezető bemutatója megrendezett volt - ezt a tényt Scott kiemelten nevesítette -, és hogy Musk felügyelte a megrendezést. "Azt fogom mondani a világnak, hogy ez az, amire az autó 'képes lesz', nem pedig azt, hogy a kézhezvételkor képes lesz erre" - írta Musk az alkalmazottaknak akkoriban küldött e-mailben, amelyben a vezérigazgató "teljesen egyértelművé tette, hogy mindenki számára a legfontosabb prioritás egy csodálatos Autopilot demóvezetés elérése".
A halálos kimenetelű balesetek továbbra is nagy aggodalomra adnak okot a tisztviselők számára, akik megpróbálják megérteni, hogy mennyire biztonságosak a Tesla Autopilot és a teljes önvezetés funkciói. Februárban a Tesla visszahívott 362 758 autót, mert a Full Self Driving bétáját túl veszélyesnek ítélték. Idén a Tesla két nagy győzelmet aratott, amikor a Nemzeti Közlekedésbiztonsági Hivatal megállapította, hogy az Autopilotnak nem volt köze egy halálos texasi Tesla-balesethez, és egy kaliforniai esküdtszék megállapította, hogy a Tesla Autopilot nem felelős egy 2019-es halálos balesetért.
Mivel a Tesla autóiban még ma is közlekednek potenciálisan hibás Autopilot-rendszerek, Scott végzése olyan felfedezéseket eredményezhet, amelyek feltárják, hogy a Tesla hogyan hoz döntéseket a vezetők biztonságával kapcsolatban. Ez fontos lehet az NHTSA számára, amely az év elején válaszokat követelt a Teslától az Autopilot-rendszerekkel kapcsolatban, de a Tesla állítólag nem válaszolt.
A Banner egyik tanújaként tanúskodó Mary Cummings, a járművek autonóm rendszereinek és a járművezető-felügyeleti rendszerek szakértője szerint a Tesla Autopilotja több szempontból is hiányos. Cummings véleménye szerint a Tesla "sokkal nagyobb képességűnek" tüntette fel az Autopilot technológiát, mint amilyen az valójában volt, és "nem használt elégséges elkerülést érzékelő technológiát". Cummings azt is felvetette, hogy "a kormánykerék vezetői figyelmetlenség-csillapítási technológiája gyengébb a más autógyártók által használt, vezetővel szemben elhelyezett kameráknak". Szerinte más hibák mellett ezek a súlyos hibák vezettek a kialakult balesethez.
Scott véleményének egy részét kifejezetten Cummings vallomására és Adam Gustafsson, a Banner és Brown Tesla balesetét egyaránt vizsgáló rendszermérnök vallomására alapozta. Arra a következtetésre jutott, hogy "ésszerű bizonyítékok állnak rendelkezésre, amelyekből az a megállapítás vonható le, hogy a Tesla a tisztviselői, alkalmazottai és munkatársai révén tudta, hogy a szóban forgó jármű hibás Autopilot rendszerrel rendelkezik, és megengedte, hogy a rendszerrel ellátott járművet olyan területeken vezessék, amelyek nem biztonságosak az adott technológia számára".
Egy floridai bíró, Reid Scott úgy döntött, hogy "ésszerű bizonyítékok" alapján megállapítható, hogy a Tesla és vezérigazgatója, Elon Musk tudott az Autopilot rendszer hibáiról, és nem javította ki azokat. A Tesla mérnökeinek tanúvallomásai és belső dokumentumok azt mutatták, hogy Musk "szorosan részt vett" a Tesla Autopilot programjában, és "tisztában volt" egy néha halálos kimenetelű hibával, miszerint az Autopilot többször nem észlelte a keresztirányú forgalmat, írta Scott. "Tudva, hogy az Autopilot rendszer korábban már meghibásodott, korlátozásokat vezettek be rá", és a Tesla Autopilot rendszerének egyik mérnöke szerint "nem volt módosítva, a Tesla mégis engedélyezte, hogy az Autopilot rendszert olyan utakon kapcsolják be, amelyeken keresztirányú forgalommal érintett területek voltak" - írta Scott.
Ennélfogva a bíró helyt adott Kim Banner kérelmének, miszerint kártérítési pert szeretne indítani a Tesla ellen szándékos mulasztás és súlyos gondatlanság miatt. Férje, Jeremy 2019-ben halt meg, amikor "az általa vezetett Tesla Model 3 egy 18 kerekű teherautó pótkocsija alá hajtott, amely elékanyarodott és levágta a jármű tetejét". Az Autopilot állítólag nem figyelmeztette Jeremyt, vagy nem reagált olyan módon, amellyel elkerülhető lett volna az ütközés, például nem fékezett vagy nem kormányozta ki a járművet a veszélyből - áll Banner panaszában. A bíró a leginkább aggasztóbbnak azt tartja, hogy a Tesla mérnökei elmondták, hogy Banner 2019-es halálát és egy másik floridai sofőr, Joshua Brown 2016-os "kísértetiesen hasonló" halálát követően az autógyártó semmit sem tett az Autopilot keresztirányú forgalmat érzékelő rendszerének frissítése érdekében. A Tesla az Autopilot funkciót ma is biztonságosnak marketingeli a sofőrök számára - írta Scott.
"Joggal vonható le az a következtetés, hogy a Tesla a rendelkezésére álló információkat figyelmen kívül hagyta azzal a céllal, hogy a járműveket az autonómia címkéje alatt értékesítse" - írta Scott. Scott megjegyezte, hogy az Autopilot Tesla általi marketingje fontos szempont, rámutatva egy 2016-os videóra, amely még mindig a Tesla weboldalán található, ahol a Tesla szerint "az autó magától vezet". "Ebből a videóból hiányzik bármilyen arra utaló jel, hogy ez a technológia jelenleg még nem létezik a piacon" - írta Scott.
Hiányzik ebből a videóból minden arra utaló jel, hogy ez a technológia jelenleg nem létezik
Scott döntése nagy csapásnak számít a Tesla számára, amely tagadta a felelősséget Banner haláláért, azzal érvelve, hogy emberi hiba történt, mivel "a használati utasítás és a megállapodás kattintással elfogadás kellőképpen figyelmeztette" a Tesla-tulajdonosokat az Autopilot korlátaira. A bíró azt írta, hogy a Tesla ezt az érvet a tárgyaláson majd előadhatja, de ebben a szakaszban az esküdtszék a rendelkezésre álló bizonyítékok birtokában ésszerűen bűnösnek találhatja a Teslát mind szándékos kötelességszegésben, mind súlyos gondatlanságban. Egy ilyen ítélet eredményeként a Tesla hatalmas kártérítést fizethet, amely szakértők szerint a társaság hírnevét is óriási mértékben ronthatná. A tárgyaláson Banner valószínűleg azzal fog érvelni, hogy a figyelmeztetések nem voltak megfelelőek. Banner ügyvédje, Lake Trey Lytal III elmondta, hogy "rendkívül büszkék erre a bizonyítékokon alapuló eredményre".
Annak ellenére, hogy a Tesla belső e-mailjeiben Muskot az Autopilot-csapat "de facto vezetőjének" nevezték, nem tett tanúvallomást Banner ügyében, amely az egyik első alkalom volt, amikor a Teslának meg kellett védenie magát azokkal az állításokkal szemben, amelyek szerint az Autopilot végzetes hibákat tartalmaz. Augusztusban a Tesla azzal is megpróbált kárelhárítást végezni, hogy igyekezett titokban tartani alkalmazottai tanúvallomásainak átiratát és más dokumentumokat. Scott végzéséből mostanra világossá vált, hogy a Tesla miért tarthatta ezeket a tanúvallomásokat és dokumentumokat annyira terhelőnek.
A Tesla Autopilot funkcióját évek óta vizsgálják. 2021-ben, amikor a vállalat kísérletképpen elkezdte tesztelni a funkciót az általa biztonságosnak ítélt vezetőkkel, az USA komoly vizsgálatot indított, mert 11 Tesla vészhelyzeti járművekkel ütközött. Ugyanebben az évben a Consumer Reports megállapította, hogy az Autopilot könnyen manipulálható úgy, hogy vezető nélkül is működjön, ami további biztonsági aggályokat vetett fel. 2022 nyarára az amerikai Nemzeti Közúti Közlekedésbiztonsági Hivatal (NHTSA) 273 olyan balesetet dokumentált, amelyekben Teslák Autopilot rendszert használtak. A szezon őszén a szövetségiek idejét látták büntetőjogi vizsgálat indításának a Tesla Autopilot állításai miatt, "azt vizsgálva, hogy a Tesla megtévesztette-e a fogyasztókat, a befektetőket és a szabályozó hatóságokat azzal, hogy megalapozatlan állításokat tett a vezetőtámogató technológia képességeiről".
A Tesla gondjai 2023-ban is folytatódtak. Az év azzal kezdődött, hogy a Tesla bejelentette a befektetőinek, hogy az Igazságügyi Minisztérium vizsgálatot folytat ellene, és az Autopilot és Full Self Driving funkciókkal kapcsolatos dokumentumokat kértek be. Nagyjából ugyanebben az időben derült ki, hogy a Tesla 2016-os önvezető bemutatója megrendezett volt - ezt a tényt Scott kiemelten nevesítette -, és hogy Musk felügyelte a megrendezést. "Azt fogom mondani a világnak, hogy ez az, amire az autó 'képes lesz', nem pedig azt, hogy a kézhezvételkor képes lesz erre" - írta Musk az alkalmazottaknak akkoriban küldött e-mailben, amelyben a vezérigazgató "teljesen egyértelművé tette, hogy mindenki számára a legfontosabb prioritás egy csodálatos Autopilot demóvezetés elérése".
A halálos kimenetelű balesetek továbbra is nagy aggodalomra adnak okot a tisztviselők számára, akik megpróbálják megérteni, hogy mennyire biztonságosak a Tesla Autopilot és a teljes önvezetés funkciói. Februárban a Tesla visszahívott 362 758 autót, mert a Full Self Driving bétáját túl veszélyesnek ítélték. Idén a Tesla két nagy győzelmet aratott, amikor a Nemzeti Közlekedésbiztonsági Hivatal megállapította, hogy az Autopilotnak nem volt köze egy halálos texasi Tesla-balesethez, és egy kaliforniai esküdtszék megállapította, hogy a Tesla Autopilot nem felelős egy 2019-es halálos balesetért.
Mivel a Tesla autóiban még ma is közlekednek potenciálisan hibás Autopilot-rendszerek, Scott végzése olyan felfedezéseket eredményezhet, amelyek feltárják, hogy a Tesla hogyan hoz döntéseket a vezetők biztonságával kapcsolatban. Ez fontos lehet az NHTSA számára, amely az év elején válaszokat követelt a Teslától az Autopilot-rendszerekkel kapcsolatban, de a Tesla állítólag nem válaszolt.
A Banner egyik tanújaként tanúskodó Mary Cummings, a járművek autonóm rendszereinek és a járművezető-felügyeleti rendszerek szakértője szerint a Tesla Autopilotja több szempontból is hiányos. Cummings véleménye szerint a Tesla "sokkal nagyobb képességűnek" tüntette fel az Autopilot technológiát, mint amilyen az valójában volt, és "nem használt elégséges elkerülést érzékelő technológiát". Cummings azt is felvetette, hogy "a kormánykerék vezetői figyelmetlenség-csillapítási technológiája gyengébb a más autógyártók által használt, vezetővel szemben elhelyezett kameráknak". Szerinte más hibák mellett ezek a súlyos hibák vezettek a kialakult balesethez.
Scott véleményének egy részét kifejezetten Cummings vallomására és Adam Gustafsson, a Banner és Brown Tesla balesetét egyaránt vizsgáló rendszermérnök vallomására alapozta. Arra a következtetésre jutott, hogy "ésszerű bizonyítékok állnak rendelkezésre, amelyekből az a megállapítás vonható le, hogy a Tesla a tisztviselői, alkalmazottai és munkatársai révén tudta, hogy a szóban forgó jármű hibás Autopilot rendszerrel rendelkezik, és megengedte, hogy a rendszerrel ellátott járművet olyan területeken vezessék, amelyek nem biztonságosak az adott technológia számára".