Citiraj:
Autor GoGzS
Istina, ali su Tesla i ekipa izbacili i ultrasouncne senzore/radar, moja teza i dalje stoji. Oslanjaju se samo na kamere za autonomnu voznju, sto ce bit zabavno za gledat do koje ce razine doci prije nego odustanu.
|
Tesla je u meduvremenu vratila radar...
Postoji vise filozofija, a jos niti jedna nije ispeglana do kraja.
Ako se ide samo na camera vision, ide se s pretpostavkom, ako vidi covjek, vidi i kamera (i obrnuto).
Pojednostavljuje se obrada podataka jer nema visestrukih razlicitih i moguce kontradiktornih inputa. Problem redundancije (list, blato,...) se rijesava preklapanjem vise kamera u isto vidno polje. Tu je tehnicki problem jos i dinamika senzora, jer senzori i dalje tesko rade sunce+sjena.
Ako se ide na sensor fusion (sto rade prakticki svi), onda se kamera, radar, USS (i Lidar) moraju usuglasiti da svi "vide" isto, te se obrada podataka eskalira da se svi razliciti oblici podataka spoje u homogenu "sliku". Time je teoretski moguce pokriti i slucajeve gdje su ljudi izgubljeni (magla -> radar) i smanjiti probleme s dinamikom (lidar). Problem je, sto kad radar kaze da je auto na cesti a ostali senzori kazu sve OK?
Strategija false detectiona je takoder ovisna o implementaciji. Kako i koliko osjetljivo ce reagirati auto na "duhove". Trenutacno je vecina OEMova jako oprezna oko toga i radije koce manje / rjede (na ustrb da nekada na realnom problemu ne triggera), nego da koce "za svaku pizdariju".