• kvp
    #2
    Megneztem mit tuda rendszeruk. Hat kb. azt amit a Google fele rendszerek tudtak fel evtizede, csak azota javult a gyartastechnologia, igy olcsobban es kisebb fogyasztasura is le lehet gyartani ugyanazt. Az algoritmusok amiket hasznalnak mar lassan 30 evesek.

    ps: Ha jol ertem fixre huzalozott CNND rendszert hasznalnak, ami csak terbeli es idobeli optical flow-t futtat a kamerakbol erkezo HDR adatokra. A HDR uzemmod elonye, hogy soha nem kell a kamerakon expoziciot allitani es az algoritmus magatol megkeresi az egyezoseg maximumot. Mindezt eleg nagy felbontassa es framerate-tel. Igy nagyfelbontasu terbeli kepeket ad ki magabol a szenzor egyseg, amiket mar "csak" be kell illeszteni a korabbi allapotokat leiro terkebe. (voxel max-be) Ugyanezt csinalja a Tesla is, csak nem celaramokorokkel hanem programozhato egysegekkel. Az utobbiak elonye, hogy a jarmu tudasa szoftveresen bovitheto, hatranya, hogy a fixre huzalozott megoldasokhoz kepest sokkal kisebb teljesitmeny erheto el.

    Nem mondom azt, hogy ez nem egy mukodokepes megoldas, elvegre az optical flow algoritmusok mar jo 30 eve nem valtoztak, tehat ideje lenne fixre huzalozott egyesegeket is gyartani. (jelenleg az egyetlen ami hasonloan fix az az optikai egerek egychipes optical flow implementacioja, atlag 24x24-es kepekkel es a chipekre integralt cmos kamerakkal)