8
  • Tetsuo
    #8
    Nekem is Roska Tamás és Hámory József munkássága jutott eszembe, de ők is csak egy leegyszerűsített modellt tudtak megalkotni, az egész emberi látás komplex folyamatát minden ízében nem tudták reprodukálni. Bár, attól az még nagyon is jól működik bizonyos körülmények között ugye.
  • kvp
    #7
    "Csak el kellene mondanod a fejlesztőknek, hogy az hogyan működik és akkor leprogramozzák és megmentetted az emberiséget a sok hülye felesleges körtől. Bagatel!"

    Ezt mar szerencsere anno a Roska Tamas fele kutatocsapat elvegezte (a kaliforniai Leon Chua fele csapattal kozosen). Igazabol mar a DARPA versenyen gyoztes Stanley is az o altaluk jo 20 evvel korabban kifejlesztett algoritmus szerint vegezte a kepfeldolgozast. Mara eljutottuk oda, hogy mar az OpenCV is tartalamzza az alacsony szintu komponenseket. Nem ez a kihivas. (majd 20 eve pont errol irtam a diplomam, csak akkor meg tul draga volt a hetkoznapi felhasznalashoz a szukseges szamitasi kapacitas)

    "Nem az a cél, hogy a robotautó olyan szarul vezessen mint az ember."

    Egyelore az a cel, hogy olyan szarul vezessen mint a legjobb emberi sofor. Ez megoldhato. Persze ahol a legjobb emberi sofor is teved, ott az algoritmus is tevedni fog. Viszont onnantol az emberi latasnal jobb szenzorok, a gyorsabb processzorok miatti gyorsabb reakcioido mar a legtobb esetben jobb eredmenyt fog hozni mint amire a legjobb emberi sofor kepes lenne. Azan onnan lehet tovabb menni, hogy meg annal is jobb legyen (lasd pl. szenzor integracio, hogy az auto lasson az osszes kornyezo statikus vagy mozgo kamera szemevel is, de elso korben eleg ha azt a szintet hozza amit az ember tud.

    "A kamerás látásnak ugyanúgy azon szituációk leginkább kihívások ahol pl. az ember is elcsapja az alacsony láthatóságú Józsit amint este battyog az úton haza a kocsmából, ne adj isten fekszik:"

    Ha van annyi bejovo jel, hogy van ott valami, akkor a szoftver megtanithato arra, hogy meg idoben megalljon. Igazabol a legtobb veszelyes szituacio elkerulheto lenne azzal, ha a robotok csak a latasi viszonyoknak megfelelo sebesseggel mennenek, mig az ember altalaban a maximalis megengedettel, ami egyebkent a szep tiszta nappali idojarasra vonatkozna.

    A kihivas az, hogy az emberek elfogadjak, hogy az automata autok ovatosabbak nalluk. A Teslak nem azok, emberi modon, emberi sebesseggel vezetnek es hibaznak neha. De a szabalyok betartasa itt viszonylag egyszeru, mert ha a szoftverbe beleirjak, hogy rossz allapotu sotet videki uton vmax = 20 km/h, akkor nem fog pattogni, annyival megy akkor is ha 50 vagy 80 van a tablan es akkor is ha a kocsiban ulo ember egyebkent sietne.

    "Úgyhogy kell oda szenzor dögivel."

    Mivel nagyjabol egy atlagos mobiltelefon is lefedi ezt a listat, tovabba mar a gyari Teslakban is tobb van mint a felsorolt peldak, ez annyira nem egy nagy kihivas es meg arban sem jelentos.
  • M2 #6
    Nem az a cél, hogy a robotautó olyan szarul vezessen mint az ember.

    "...csak siman az emberi (egyebkent genetikailag kodolt) kepfeldolgozo neuralis modell lemasolasa szoftverbe"

    Csak el kellene mondanod a fejlesztőknek, hogy az hogyan működik és akkor leprogramozzák és megmentetted az emberiséget a sok hülye felesleges körtől. Bagatel!
  • Ender Wiggin
    #5
    A Consumer Reports meg közben az autonómia frontharcosát a Teslát közveszélyesnek nyilvánította, és erre a részvények zuhantak is egyet... Szegény robotautókat taníthatják évszázadokig, hogy felismerjenek mindent, amit egy ember a születésétől megtapasztal és simán le tud reagálni, de mindig lesz nekik valami újdonság, aminek az eredménye az, hogy meghal valaki.
  • defiant9
    #4
    A visszapillantók azért vannak hogy elvileg 360 fokban körbelássunk. Sztereó kamera azért nem létszükség mert az elmozdulás alapján is lehet 3D-t számolni, ami persze ugyanúgy bele tud hibázni ahogy az emberi látás is. A látókéreg az emberi agy legnagyobb területe, kifejezetten nehéz feladat felismerni bármit ami elénk kerülhet csak ezt természetesenek vesszük, akinek algoritmust kell rá írnia az tisztában van vele. Persze az önvezetők fényévekre vannak emberi szintű felismeréstől, kb. annyit tudnak hogy a két kép fázis alapján ott van valami, tehát bekeretezzük mint objektum, aztán megpróbálunk ráhúzni valami a letárolt modell készletből. Ez persze elvi szinten elégséges is, a gépnek nem szükséges olyan kifinomult látás amivel megcsodálja a gyalogos ruházatának textúráját. A kamerás látásnak ugyanúgy azon szituációk leginkább kihívások ahol pl. az ember is elcsapja az alacsony láthatóságú Józsit amint este battyog az úton haza a kocsmából, ne adj isten fekszik:
    Az autót egy 36 éves férfi vezette, aki a vizsgálatok alapján nem fogyasztott alkoholt, mielőtt a volán mögé ült. A sofőr a sötétben nem vette észre, hogy a férfi az úton fekszik, és nem is számított rá, így keresztülhajtott rajta - írja a Paraméter.
    Az idősebb férfi életét nem tudták megmenteni a mentősök. Még vizsgálják, hogy ivott-e alkoholt, illetve hogy rosszul lett-e az eset előtt.

    A sok szenzor azért kell hogy mindig legyen legalább egy olyan ami érzékeli a veszélyt, nem számít hogy az idő nagy részében nem lenne szükség ennyire.
  • Tetsuo
    #3
    Hogy működik az a neurális processzor? Úgy értem, azzal hogyan lehet lemásolni az emberi vizuális térérzékelést?
  • AgentKis
    #2
    Szerintem nem akkora baj, ha "látnak" ködben, sötétben vagy, ha mérnek szélirányt és sebességet.
    Amúgy az ember is jóval több érzékszervét használja vezetéshez, mint a 2 szem (1-el is lehet vezetni). Az egyensúlyi szervünkkel és a testünkön lévő bőr nyomásérzékenységével a gyorsulás irányát és intenzitását is jól tudjuk követni, ahogyan az útpálya vízszintessel bezárt szögét is, ami ugye fékútnál, kanyarsebességnél egyáltalán nem mindegy és pusztán egy 3D-s képről meg nem igazán derül ki... ;-)
    De ott van pl. az útburkolat minősége. Nyilván murvás földúton, vagy havas-jégbordás aszfalton nem kellene 90-el csapatnia a robotautónak településen kívül sem. Ezeket sem "érzékeled" a 3D-s modellel.
    Úgyhogy kell oda szenzor dögivel.
  • kvp
    #1
    Milyen erzekszerveket hasznal az ember egy auto iranyitasara? Idealis esetben a ket szemet es maximum meg a ket fulet. Ez boven eleg kellene hogy legyen a robotautoknak is. Tehat a kello latoterrel rendelkezo sztereokamera rendszer es esetleg meg egy kulso mikrofon rendszer elegseges. A jelfeldolgozasnal pedig a kamerakepeket egy 3D-s texturazott voxel mappe kell feldolgozni, ami az osszes kamera altal latott informaciot egyetlen terben kezeli. A megoldas nem extra szenzorok beepitese, hanem a strukturalt adatfeldolgozas. A kamerak kepeit dedikaltan fel kell dolgozni lokalis voxel mappekke, majd ezeket mintaillesztessel elhelyezni a teljes jarmu koruli teret reprezentalo map-ben, kezelve hogy melyik voxel informacioja mennyire friss. Ebben mar viszonylag trivialis az utkozesek elkerulese es az utvonalkereses. Meg csak gepi tanulas sem kell hozza, csak siman az emberi (egyebkent genetikailag kodolt) kepfeldolgozo neuralis modell lemasolasa szoftverbe.

    ps: A fenti leiras szerint mukodik a legtobb robotautos fejlesztes, az elso DARPA-s Stanley-tol a ma futo Teslakig. Nem olyan bonyolult, csak eleg eroforrast kell adni a feldolgorendszereknek es pl. a Google altal fejlesztett neuralis processzorokban joval tobb ero van mint ami ehhez kell. (a cikkben szereplo nemet kutatok persze nem fernek hozza ehhez a technologiahoz, ezert probalnak valami mast eladni mint fejlesztest)