SG.hu

A Tesla pontosan tudta, hogy nem jól működik az Autopilot rendszere

Egy floridai bíró szerint Elon Musk, a Tesla vezérigazgatója és más vezetők tudták, hogy az autógyártó járművei hibás Autopilot rendszerrel rendelkeznek, de mégis megengedték, hogy az autókat veszélyes módon vezessék.

Egy floridai bíró, Reid Scott úgy döntött, hogy "ésszerű bizonyítékok" alapján megállapítható, hogy a Tesla és vezérigazgatója, Elon Musk tudott az Autopilot rendszer hibáiról, és nem javította ki azokat. A Tesla mérnökeinek tanúvallomásai és belső dokumentumok azt mutatták, hogy Musk "szorosan részt vett" a Tesla Autopilot programjában, és "tisztában volt" egy néha halálos kimenetelű hibával, miszerint az Autopilot többször nem észlelte a keresztirányú forgalmat, írta Scott. "Tudva, hogy az Autopilot rendszer korábban már meghibásodott, korlátozásokat vezettek be rá", és a Tesla Autopilot rendszerének egyik mérnöke szerint "nem volt módosítva, a Tesla mégis engedélyezte, hogy az Autopilot rendszert olyan utakon kapcsolják be, amelyeken keresztirányú forgalommal érintett területek voltak" - írta Scott.

Ennélfogva a bíró helyt adott Kim Banner kérelmének, miszerint kártérítési pert szeretne indítani a Tesla ellen szándékos mulasztás és súlyos gondatlanság miatt. Férje, Jeremy 2019-ben halt meg, amikor "az általa vezetett Tesla Model 3 egy 18 kerekű teherautó pótkocsija alá hajtott, amely elékanyarodott és levágta a jármű tetejét". Az Autopilot állítólag nem figyelmeztette Jeremyt, vagy nem reagált olyan módon, amellyel elkerülhető lett volna az ütközés, például nem fékezett vagy nem kormányozta ki a járművet a veszélyből - áll Banner panaszában. A bíró a leginkább aggasztóbbnak azt tartja, hogy a Tesla mérnökei elmondták, hogy Banner 2019-es halálát és egy másik floridai sofőr, Joshua Brown 2016-os "kísértetiesen hasonló" halálát követően az autógyártó semmit sem tett az Autopilot keresztirányú forgalmat érzékelő rendszerének frissítése érdekében. A Tesla az Autopilot funkciót ma is biztonságosnak marketingeli a sofőrök számára - írta Scott.

"Joggal vonható le az a következtetés, hogy a Tesla a rendelkezésére álló információkat figyelmen kívül hagyta azzal a céllal, hogy a járműveket az autonómia címkéje alatt értékesítse" - írta Scott. Scott megjegyezte, hogy az Autopilot Tesla általi marketingje fontos szempont, rámutatva egy 2016-os videóra, amely még mindig a Tesla weboldalán található, ahol a Tesla szerint "az autó magától vezet". "Ebből a videóból hiányzik bármilyen arra utaló jel, hogy ez a technológia jelenleg még nem létezik a piacon" - írta Scott.


Hiányzik ebből a videóból minden arra utaló jel, hogy ez a technológia jelenleg nem létezik

Scott döntése nagy csapásnak számít a Tesla számára, amely tagadta a felelősséget Banner haláláért, azzal érvelve, hogy emberi hiba történt, mivel "a használati utasítás és a megállapodás kattintással elfogadás kellőképpen figyelmeztette" a Tesla-tulajdonosokat az Autopilot korlátaira. A bíró azt írta, hogy a Tesla ezt az érvet a tárgyaláson majd előadhatja, de ebben a szakaszban az esküdtszék a rendelkezésre álló bizonyítékok birtokában ésszerűen bűnösnek találhatja a Teslát mind szándékos kötelességszegésben, mind súlyos gondatlanságban. Egy ilyen ítélet eredményeként a Tesla hatalmas kártérítést fizethet, amely szakértők szerint a társaság hírnevét is óriási mértékben ronthatná. A tárgyaláson Banner valószínűleg azzal fog érvelni, hogy a figyelmeztetések nem voltak megfelelőek. Banner ügyvédje, Lake Trey Lytal III elmondta, hogy "rendkívül büszkék erre a bizonyítékokon alapuló eredményre".

Annak ellenére, hogy a Tesla belső e-mailjeiben Muskot az Autopilot-csapat "de facto vezetőjének" nevezték, nem tett tanúvallomást Banner ügyében, amely az egyik első alkalom volt, amikor a Teslának meg kellett védenie magát azokkal az állításokkal szemben, amelyek szerint az Autopilot végzetes hibákat tartalmaz. Augusztusban a Tesla azzal is megpróbált kárelhárítást végezni, hogy igyekezett titokban tartani alkalmazottai tanúvallomásainak átiratát és más dokumentumokat. Scott végzéséből mostanra világossá vált, hogy a Tesla miért tarthatta ezeket a tanúvallomásokat és dokumentumokat annyira terhelőnek.

A Tesla Autopilot funkcióját évek óta vizsgálják. 2021-ben, amikor a vállalat kísérletképpen elkezdte tesztelni a funkciót az általa biztonságosnak ítélt vezetőkkel, az USA komoly vizsgálatot indított, mert 11 Tesla vészhelyzeti járművekkel ütközött. Ugyanebben az évben a Consumer Reports megállapította, hogy az Autopilot könnyen manipulálható úgy, hogy vezető nélkül is működjön, ami további biztonsági aggályokat vetett fel. 2022 nyarára az amerikai Nemzeti Közúti Közlekedésbiztonsági Hivatal (NHTSA) 273 olyan balesetet dokumentált, amelyekben Teslák Autopilot rendszert használtak. A szezon őszén a szövetségiek idejét látták büntetőjogi vizsgálat indításának a Tesla Autopilot állításai miatt, "azt vizsgálva, hogy a Tesla megtévesztette-e a fogyasztókat, a befektetőket és a szabályozó hatóságokat azzal, hogy megalapozatlan állításokat tett a vezetőtámogató technológia képességeiről".

A Tesla gondjai 2023-ban is folytatódtak. Az év azzal kezdődött, hogy a Tesla bejelentette a befektetőinek, hogy az Igazságügyi Minisztérium vizsgálatot folytat ellene, és az Autopilot és Full Self Driving funkciókkal kapcsolatos dokumentumokat kértek be. Nagyjából ugyanebben az időben derült ki, hogy a Tesla 2016-os önvezető bemutatója megrendezett volt - ezt a tényt Scott kiemelten nevesítette -, és hogy Musk felügyelte a megrendezést. "Azt fogom mondani a világnak, hogy ez az, amire az autó 'képes lesz', nem pedig azt, hogy a kézhezvételkor képes lesz erre" - írta Musk az alkalmazottaknak akkoriban küldött e-mailben, amelyben a vezérigazgató "teljesen egyértelművé tette, hogy mindenki számára a legfontosabb prioritás egy csodálatos Autopilot demóvezetés elérése".

A halálos kimenetelű balesetek továbbra is nagy aggodalomra adnak okot a tisztviselők számára, akik megpróbálják megérteni, hogy mennyire biztonságosak a Tesla Autopilot és a teljes önvezetés funkciói. Februárban a Tesla visszahívott 362 758 autót, mert a Full Self Driving bétáját túl veszélyesnek ítélték. Idén a Tesla két nagy győzelmet aratott, amikor a Nemzeti Közlekedésbiztonsági Hivatal megállapította, hogy az Autopilotnak nem volt köze egy halálos texasi Tesla-balesethez, és egy kaliforniai esküdtszék megállapította, hogy a Tesla Autopilot nem felelős egy 2019-es halálos balesetért.

Mivel a Tesla autóiban még ma is közlekednek potenciálisan hibás Autopilot-rendszerek, Scott végzése olyan felfedezéseket eredményezhet, amelyek feltárják, hogy a Tesla hogyan hoz döntéseket a vezetők biztonságával kapcsolatban. Ez fontos lehet az NHTSA számára, amely az év elején válaszokat követelt a Teslától az Autopilot-rendszerekkel kapcsolatban, de a Tesla állítólag nem válaszolt.

A Banner egyik tanújaként tanúskodó Mary Cummings, a járművek autonóm rendszereinek és a járművezető-felügyeleti rendszerek szakértője szerint a Tesla Autopilotja több szempontból is hiányos. Cummings véleménye szerint a Tesla "sokkal nagyobb képességűnek" tüntette fel az Autopilot technológiát, mint amilyen az valójában volt, és "nem használt elégséges elkerülést érzékelő technológiát". Cummings azt is felvetette, hogy "a kormánykerék vezetői figyelmetlenség-csillapítási technológiája gyengébb a más autógyártók által használt, vezetővel szemben elhelyezett kameráknak". Szerinte más hibák mellett ezek a súlyos hibák vezettek a kialakult balesethez.

Scott véleményének egy részét kifejezetten Cummings vallomására és Adam Gustafsson, a Banner és Brown Tesla balesetét egyaránt vizsgáló rendszermérnök vallomására alapozta. Arra a következtetésre jutott, hogy "ésszerű bizonyítékok állnak rendelkezésre, amelyekből az a megállapítás vonható le, hogy a Tesla a tisztviselői, alkalmazottai és munkatársai révén tudta, hogy a szóban forgó jármű hibás Autopilot rendszerrel rendelkezik, és megengedte, hogy a rendszerrel ellátott járművet olyan területeken vezessék, amelyek nem biztonságosak az adott technológia számára".

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Macropus Rufus #16
    a fenti videoról nem tudom eldönteni, hogy igaz e az amit ott látok ui. a sofőr egyszer sem érintette meg a kormányt. Márpedig a Tesla igényli ezt. Szóval az is lehet, hogy a) ki volt iktatva ez a funkció és a kocsi erre az útra lett felkészítve direkt. b) akár az is lehetett, hogy valaki vezette ezt a kocsit.
  • Macropus Rufus #15
    lazán kapcsolódik:

    https://sg.hu/cikkek/auto/156033/korlatozza-az-onvezetest-autoiban-a-tesla

    ezek szerint akkor még sem olyan jó. A sok baleset egy jó része, amire a Tesla azt mondta, hogy emberi hiba az is az auto pilot hibája volt.
  • t_robert #14
    Amúgy a Tesla videóban voltak gyorsított részek. Amit az okozhat, hogy a felvétel ami rögziti a látvány kisebb FPS-sel készült, mint a lejátszási FPS szám. emiatt gyorsítva látunk dolgokat, mintha tényleg száguldozna a kocsi. Másfelöl meg az is látszik, hogy végig egy igen jó minőségű uton megy a kocsi, ahol tisztán látszanak az útburkolati jelek és jelzések és a kettős sárga záróvonal, amihez tudja magát rendesen pozicionálni a kocsi. Az igazi gond akkor kezdődik, mikor ezek a jelzések nem ennyire egyértelműek és tiszták. Például a TESLA Magyarországon is relatíve megbízhatóan mozog az autópályákon. Például Pestről szépen lemegy a Balatonig az autópályán és csak néhány alkalommal kell beleavatkozni a vezetésbe. A gondok akkor kezdődnek, mikor letérnek a pályáról egy alsobb rendű útra. Például letér a balatont északról megkerülő gyakaorlatilag országútra(71-es vagy hányas út). Ami már távolról sincsen olyan jól felfestve és kitáblázva. Falvakon megy át jelzések és útburkolati jelzések és sávok nélkül. Ennek következtében a kocsinak fogalma sincsen merre halad az út. Simán neki akar menni a szemből közeledő autónak túl behúzódva középen, vagy neki akar hajtani a faluban az útszélen álldogáló autóba. Vagy nem észlelve a körforgalmat simán keresztül akar rongyolni rajta középen hosszában. Vagyis a tesla nagyjából jól megy olyan úton, ahol ennyire egyértelműen lehet követni a útburkolatot az út nyomvonalát és a jelzéseket.
  • manypet #13
    Értem, amit írsz, de azért kicsit csúsztatsz. Az addig oké, hogy ezek még nem önvezető autók. Ezt aláírom én is. Azért használjuk ezt a kifejezést, mert ez van a köztudatban. Igen, hibásan használom én is, de így érthető, mire is gondol az ember. De igazad van, ezek még nem önvezető autók. Azt is elfogadom, hogy a tesztelés során csak autópályát néztek általában.

    Ugyanakkor az, hogy egy autó hány éves, ugyan ront a baleseti statisztikán, de nem annyira mérvadó. A legtöbb baleset nem az autó műszaki állapotából fakad, hanem a vezető hibájából. Szintén igaz, hogy a Waymo tötymörög. De attól, hogy valaki lassan megy, még nem ő a hibás a balesetért. Ezt elég nehéz a rovására írni. A Waymo betartja a kreszt-t, míg a közlekedés többi résztvevője nem. És így ugyan felróható neki, hogy nem a közlekedés ritmusával megy, de ebben nem ő a hibás. Lehet hibás a többi vezető, aki áthágja a szabályokat, avagy lehet hibás a közlekedésfelügyelet/rendőrség, akik nem az átlagos forgalomnak megfelelő táblákat raknak ki.

    Emellett szintén figyelmen kívül hagyod, amit írtam:
    Az önvezető autó (nevezzük most így) lehet, hogy elkövet egy hibát. De abból tanul! Míg az emberek nem tanulnak ebből. Ha egy ilyen autó esetleg balesetet okoz - ami már most versenyképes az emberi vezetők teljesítményével - akkor a programfrissítés után soha az életben nem fogja újra elkövetni. És nem csak az az autó, hanem egyik sem a flottában. Ami rohadt nagy különbség! Lehet, hogy ezek az autók még tanulnak. Ez tény, aláírom. De ezt csak pár éve teszik, néhány járművel. Nekünk embereknek meg 100 év alatt több milliárd járművel sem sikerült megtanulnunk olyan pofon egyszerű szabályokat, hogy nem lépjük át a megengedett sebességet, avagy nem ülünk autóba ittasan.

    Szóval én csak azt mondom, hogy igenis jó, hogy kiengedik ezeket az autókat a forgalomba, mert csak ott tud tanulni rendesen. És igenis jó, hogy ott ül az ember mögötte, hogy tanítsa, mint egy oktató vezető. Mert minél többet van forgalomban, és minél több helyzetben tapasztal, annál biztonságosabb lesz. És lehet, hogy a következő 10 évben még hasonló számú balesetet okoznak, mint az emberek, de 10-20 év múlva emberek százezrei kerülhetik el a segítségükkel a halált vagy az életre való megnyomorodást.

    Ezt egészíteném ki azzal, amit szintén írtam, és ezt sem vetted figyelembe. Mégpedig azt, hogy ezeknek az autóknak éppen a közlekedésben résztvevő emberek jelentik a fő problémát. Azaz ha a Waymo autójának felrovod a hibáját, mert nem az emberekhez igazodott, akkor úgy jogos, hogy az embereknek is felrovod, hogy miért nem hozzá igazodtak. De nem is ez a lényeg. Hanem az, hogy egy adott útvonalon vagy körzetben csak és kizárólag önvezető autók lennének, akkor radikálisan kevesebb balesetet okoznának, mintha emberek közé mennének. Az önvezető autók bevezetésének a legnagyobb akadálya az ember vezette sofőr. Viszont ha ehelyett egy város a tömegközlekedését eleve ilyen autókra alapozná, azaz lennének mondjuk a villamoshoz hasonló pályák csak önvezető autóknak, akkor sokkal biztonságosabbak lennének, mintha emberek közé raknánk őket.
    Utoljára szerkesztette: manypet, 2023.11.28. 16:49:25
  • NEXUS6 #12
    A Waymo más alapkoncepció szerint vezet. A Tesla talán inkább egyfajta emberi módon próbál vezetni (lásd még nem akart megállni a STOP táblánál, ha nem látott autót közelíteni - szabálysértés, valszeg az emberektől tanulta), a Waymo viszont mindenkor a biztonságot helyezi előtérbe, legalábbis amit általában erről gondolunk:
    "A Waymo a balesetekről részletes beszámolókat is közölt, eszerint a 18 valódi balesetből 14 ráfutásos baleset volt, és minden esetben a másik autó sofőrje volt a hibás. "
    Magyarul, amíg a Tesla megy mint a meszes, mert ugye tegnap sem jött arra senki, mi baj történhet, addig a Waymo meg tötymörög, mint egy bexari nyugdíjas, vagy frissjogsis, a forgalom ritmusát sem tartva okozt baleseteket. (Vagy szerinted, ha más megy bele az nem számít?, mert a Waymo fejlesztői is pont ezt gondolják, úgy tűnik).

    Azonban megállapíthatjuk, hogy a két eltérő megközelítés az embernél is létező, és azzal összemérhető baleseti statisztikai eredményt jelent. Olyan új megközelítés, amely az embertől eltérő stílust, kevesebb sérüléshez, balesethez vezető vezetési módot jelent egyelőre még nem létezik.

    Másrészt ugye itt a cikkben a vezető beavatkozásáról is beszélünk, vagyis a Waymo taxija is, olyan "önvezető" jármű, amiben mégiscsak ül egy soför. Hogy van ez, akkor most ki vezet? ;)
    Utoljára szerkesztette: NEXUS6, 2023.11.27. 10:44:48
  • NEXUS6 #11
    Kezdjük ott, hogy a PR arról szól amit te is írsz:
    "Már most jobb statisztikával dolgoznak, mint az átlagjózsi."

    Ami azonban gyak nem igaz! Lásd lentebb, de elmagyarázom:
    A Tesla a közzétett baleseti statisztikájában a közzétett aktivált Tesla Autopilot (LVL 2 nem önvezető, mert a felelősség a sofőré) asszisztálásával veti össze a baleseti statisztikákból származtatott ua távra vetítve, a levezetett mérföldre az átlag amcsi balesetmentesen levezetett mérföld mennyiségét. Azonban az Autopilot csak autópályán van engedélyezve, az átlag ember viszont mindenhol vezet. Ha viszont az átlagember autópályás baleseti staisztikáját nézzük, az viszont pont annyi (nagyságrendileg), mint a Tesla által reklámozott önvezető autó szuper teljesítménye.
    Megjegyzem. a FSD amely már városban is képes bizonyos (gyak LVL 2) vezetéstámogató (nem nevezhető önvezetőnek) funkciókra, azonban ez jelenleg is csak teszt fázisban van. A Tesla alapesetben is jobb baleseti statisztikát mutat, mint az átlag? Miért is? Csak mert egy jól felszerelt, új, jó állapotú szemben az átlag amcsi 15 év körüli lerobbant kocsijával.

    És akkor továbbmenve, megint csak:
    "Már most jobb statisztikával dolgoznak, mint az átlagjózsi."
    És aha a Tesla volt szives indokolatlanul ezt az általad is megfogalmazatt elvárást, indokolatlanul kelteni, akkor talán meg kéne neki felelni, vagyis az "önvezető" (egyeleőre csupán vezetéstámogató rendszer) lesz szíves nem olyan bakikat csinálni, vagy rosszabbakat is, mint egy átlag, ne adj isten kezdő sofőr!
  • manypet #10
    " Ezt szajkozzatok. De adat sosincs róla. Bemondasnak tűnik."
    https://raketa.hu/onvezeto-auto-baleseti-statisztikak-waymo
  • manypet #9
    "Egy tök átlagos emberke soha nem csinálna ilyet. Ha csak nem hülye."
    De mivel hülyéből túlkínálat van, ezért az ember is megcsinálja.
    Annyi a különbség, hogy a szoftver a javítás után már nem fogja többet elköveti ezt a hibát. Ellenben hülye ember mindig lesz.

    "Ezek a rendszerek nem lehetnek rosszabbak már az elején sem mint egy átlag ember."
    Már most jobb statisztikával dolgoznak, mint az átlagjózsi.

    "A Tesla és a hozzá hasonló félkész programmal felszerelt autók mind mind azon dolgoznak, hogy az emberek ne bízzanak meg az önvezető autókban."
    Persze, hiszen ez piaci érdekük. Megéri nekik nem eladni sok autót és dollármilliárdos veszteségeket produkálni. ... Oh, wait!
  • militavia #8
    Igen, kb. Meg vicces, amikor autópályázó autó vs városi használatot mérünk össze.
    ó
  • militavia #6
    .