[分享] 全自動駕駛兩套方案:視覺辨識與光達

看板car作者 (缺鈣缺很大)時間6年前 (2019/05/06 06:26), 6年前編輯推噓33(34130)
留言65則, 37人參與, 6年前最新討論串1/1
這篇文章是根據MIT 科學家Lex Fridman 的自動駕駛講座的部分內容而寫成的, 主要來介紹一下目前全自動駕駛所用到的各種感應器其優點與缺點。 https://i.imgur.com/BMK347H.png
目前全自動駕駛的發展大致上有兩種方案,一是視覺辨識加上深度學習,第二種 則是光達(Lidar)加上高精度地圖。另外這兩種方案都還是會用上例如雷達、超 音波雷達等感應器。 ‧視覺辨識加深度學習方案 ‧優點: ‧擁有最高解析度的資訊 ‧大規模搜集資料與深度學習的可行性高 ‧道路原先就是設計給人類的視覺使用 ‧便宜 ‧缺點: ‧不精確(如果沒有大量數據的話) ‧(深度學習)不可解釋、不一致 ‧光達加高精度地圖方案: ‧優點: ‧可解釋、一致 ‧精確 ‧缺點: ‧不會隨時間經過而改善 ‧(光達、製作高精度地圖)貴 而這兩套方案所用的感應器,例如雷達(Radar)、光達(Lidar)、相機(Camera)、 超音波雷達(Ultrasonic)等特性也不同以下介紹這些感應器的主要特點: https://i.imgur.com/1u0oLqF.png
‧雷達:便宜、在極端天氣下工作狀況良好,但解析度低,是最常被用來檢測 及追蹤物體的感應器。 https://i.imgur.com/sYqLYwX.png
‧光達:造價貴,對於檢測深度(與物體之間的距離)極度精確,解析度要比雷達 來的高,擁有360度的可視範圍。 https://i.imgur.com/SsFAyU4.png
‧相機:便宜,有著高解析度,可蒐集巨量數據做為深度學習之用,但對於深度 的估計很差,在極端天氣下的工作狀況也不好。 下面這四張圖則是代表了這些感應器在各種光線與天氣條件之下其感應距離與靈 敏度的變化: https://i.imgur.com/e4sOogJ.png
https://i.imgur.com/ZLtYiC6.png
而若是以 Proximity detection (接近or距離檢測) Range (範圍) Resolution (解析度) Works in dark (黑暗中工作狀況) Works in bright (明亮時工作狀況) Works in snow/rain/fog (在雪/雨/霧中的工作狀況) Provide colour/contrast (提供色彩/對比資訊) Detects speed (檢測速度) Sensor size (感應器體積) Sensor cost (感應器成本) 這幾項做為指標的話,那各種感應器的表現如下: 光達: https://i.imgur.com/lpv5ZWT.png
超音波雷達: https://i.imgur.com/O4OsAFV.png
雷達: https://i.imgur.com/oqo3O5p.png
相機(被動視覺): https://i.imgur.com/u4ovri8.png
而在使用視覺辨識加上深度學習的這一項方案中,感應器融合是不可少的,將 相機、雷達、超音波雷達這三種感應器加起來可以得到以下的結果: https://i.imgur.com/S6WX5GZ.png
而這正是Tesla 目前所使用的方案,拿來與光達方案做比較的話,可以發現這兩 種方案有以下特點: https://i.imgur.com/1QlIhU7.png
可以發現,"相機 + 超音波雷達 + 雷達" 這些傳感器融合後就能媲美光達,而 光達不能獲取色彩/對比數據,最終同樣要加上相機,然後解決視覺辨識問題。 也就是說一但解決了視覺辨識問題,那麼只要"相機 + 超音波雷達 + 雷達"就能 覆蓋所有感應器所需要解決的事情。這也是Elon Musk 會說全自動駕駛不需要光 達的原因;至於要如何解決視覺辨識問題?那就透過深度學習來解決,而深度學 習所需要的大量數據則透過目前已經安裝在幾十萬輛Tesla 上的感應器來蒐集。 講座影片:(此篇文章用到的內容從41:55 開始) https://youtu.be/sRxaMDDMWQQ?t=2515
講座ppt 下載: http://bit.ly/2H0Htiz Dr. Lex Fridman 個人網站: https://lexfridman.com/ -- https://i.imgur.com/60khZxi.jpg
https://i.imgur.com/3YhAuMC.gif
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.34.252.81 ※ 文章網址: https://www.ptt.cc/bbs/car/M.1557095194.A.CB5.html ※ 編輯: Scape (1.34.252.81), 05/06/2019 06:27:53

05/06 06:38, 6年前 , 1F
新知推
05/06 06:38, 1F

05/06 06:39, 6年前 , 2F
光學雷達,簡稱光達.目前造價2萬美元,跟車價差不多了
05/06 06:39, 2F

05/06 06:43, 6年前 , 3F
簡單來講,相機辨識道路不容易辨識景深
05/06 06:43, 3F
其實透過深度學習加上相機(Tesla 前方有三個鏡頭類似人眼的視差可以製造距離感) 也能很好的判斷距離,這方面的研究很多 Tesla 也在前陣子的Tesla Autonomy Day 的展示中也有提到 光用相機得到的數據然後丟進神經網路做深度學習 所得到的距離資訊其實與用雷達檢測到的相差無幾: (影片約2:20:44 ~ 2:21:25 這一段) https://youtu.be/Ucp0TTmvqOE?t=8444

05/06 06:44, 6年前 , 4F
雷達辨識,沒有顏色,需結合地圖電腦判斷.
05/06 06:44, 4F

05/06 06:44, 6年前 , 5F
謝謝分享 難怪Musk自信滿滿
05/06 06:44, 5F

05/06 06:44, 6年前 , 6F
光達既是雷達,有景深,有距離,也有顏色,但sensor 2萬美元
05/06 06:44, 6F
其實光達也不能判別顏色,這是它最大的罩門 ※ 編輯: Scape (1.34.252.81), 05/06/2019 06:57:24

05/06 07:37, 6年前 , 7F
不會互相干擾嗎?
05/06 07:37, 7F
不會喔 雷達是發射波長較長的微波或電磁波然後接收從物體反射的微波或電磁波來測距 超音波雷達則是用人耳聽不到頻率較高的聲波 相機是被動接收可見光 光達則是用波長較短的電磁波(或是說發射雷射or光子) 不太會互相干擾,其頻率都不同 ※ 編輯: Scape (1.34.252.81), 05/06/2019 07:46:42

05/06 07:42, 6年前 , 8F
推分享
05/06 07:42, 8F

05/06 07:57, 6年前 , 9F
長知識
05/06 07:57, 9F

05/06 08:28, 6年前 , 10F
應該需要非常強的後處理器喔
05/06 08:28, 10F
所以Tesla 才自己設計專為自己訂製的AI 晶片,以獲取最好的效能與功耗

05/06 08:29, 6年前 , 11F
好文推
05/06 08:29, 11F

05/06 08:30, 6年前 , 12F
光達最大缺點就是貴 光達廠再混可能會被淘汰
05/06 08:30, 12F
※ 編輯: Scape (1.34.252.81), 05/06/2019 08:40:35

05/06 08:45, 6年前 , 13F
長知識推
05/06 08:45, 13F

05/06 08:48, 6年前 , 14F
光達2萬鎂算便宜了,拿來做建築物點雲掃描的都要快200
05/06 08:48, 14F

05/06 08:48, 6年前 , 15F
萬台幣
05/06 08:48, 15F

05/06 08:50, 6年前 , 16F
05/06 08:50, 16F

05/06 08:55, 6年前 , 17F
現在ACC會撞靜止車就是雷達解析度太低的毛
05/06 08:55, 17F

05/06 09:02, 6年前 , 18F
現在低價光達ouster 一顆降到3500鎂了
05/06 09:02, 18F

05/06 09:15, 6年前 , 19F
光達不會被淘汰,就像樓上說的有其特定的市場需求
05/06 09:15, 19F

05/06 09:18, 6年前 , 20F
推,少見的車板好文
05/06 09:18, 20F

05/06 09:23, 6年前 , 21F
光達太貴了 研究生買不起
05/06 09:23, 21F

05/06 09:35, 6年前 , 22F
長知識
05/06 09:35, 22F

05/06 09:35, 6年前 , 23F
光達現在應該軍事上用的比較多吧
05/06 09:35, 23F

05/06 09:38, 6年前 , 24F
光達可以分辨顏色。只要在鏡頭的部分加分光鏡,將雷射的波
05/06 09:38, 24F

05/06 09:38, 6年前 , 25F
段濾掉再送到一般的彩色攝影機就行。
05/06 09:38, 25F
這樣應該還是直接加上相機(彩色攝影機)比較快了 XD 還有一點就是光達解析度相對相機來說低很多 如果要看交通號誌、交通標誌甚至需要判別文字的話 很低的解析度也不夠用

05/06 09:38, 6年前 , 26F
構築這套系統所需要的半導體甚多,未來十年還是半導體時
05/06 09:38, 26F

05/06 09:38, 6年前 , 27F
代,自駕車相關周邊帶來的半導體發展還在更上一層樓,繼
05/06 09:38, 27F

05/06 09:38, 6年前 , 28F
智慧型手機後,相關產業的就業跟投資還是正向以對
05/06 09:38, 28F

05/06 09:39, 6年前 , 29F
光達不過就是轉得比較快的雷射3維掃描儀而已。
05/06 09:39, 29F

05/06 09:42, 6年前 , 30F
另外講雷達沒有360偵測也是錯的。那只是因為車商多半只是
05/06 09:42, 30F

05/06 09:42, 6年前 , 31F
用固定天線,如果雷達用的是電子掃描天線ESA,或是直接像
05/06 09:42, 31F

05/06 09:42, 6年前 , 32F
光達一樣放到車頂機械旋轉,也一樣有360度的偵測
05/06 09:42, 32F

05/06 09:59, 6年前 , 33F
長知識推
05/06 09:59, 33F

05/06 10:00, 6年前 , 34F
不過科技可以不斷進步 成本葉克透過時間以及大量生產模
05/06 10:00, 34F

05/06 10:00, 6年前 , 35F
式降低 但要達到level 4 甚至5 法規才是最大的gap
05/06 10:00, 35F

05/06 10:04, 6年前 , 36F
推推,這邊的工作內容真的很有趣。
05/06 10:04, 36F

05/06 10:06, 6年前 , 37F
不完全是法規,請見講座ppt第26~39頁
05/06 10:06, 37F

05/06 10:17, 6年前 , 38F
漲知識了,謝謝你
05/06 10:17, 38F

05/06 10:55, 6年前 , 39F
特黑只會說這麼好買了沒
05/06 10:55, 39F

05/06 11:15, 6年前 , 40F
好奇Tesla使用哪一種神經網路是進行深度學習
05/06 11:15, 40F

05/06 12:05, 6年前 , 41F
兩個鏡頭辨識距離跟深度學習沒關係
05/06 12:05, 41F
要判斷距離確實可以不需要用到深度學習,相對簡單的條件下一般的影像識別就能做到 但我說的是Tesla 用的方法是利用神經網路做深度學習去學怎麼只用鏡頭判斷距離 人家就在做了,怎麼會沒有關係? 這完全就在我給的影片中就有講到: https://youtu.be/Ucp0TTmvqOE?t=8390

05/06 12:40, 6年前 , 42F
好文推 光達真的貴 公司有用過
05/06 12:40, 42F

05/06 12:55, 6年前 , 43F
好文
05/06 12:55, 43F

05/06 13:10, 6年前 , 44F
兩個鏡頭辨識距離才需要用到AI吧。雙鏡頭要辨識一顆完美的
05/06 13:10, 44F

05/06 13:10, 6年前 , 45F
球體的距離很容易,但是道路上沒那種完美條件,兩個鏡頭看
05/06 13:10, 45F

05/06 13:10, 6年前 , 46F
到的影像不會一樣,怎麼知道標定的型心是同一個點?
05/06 13:10, 46F

05/06 13:30, 6年前 , 47F
有比較兩種方案的能耗嗎?
05/06 13:30, 47F
比較能耗要看實際的配備才能決定 深度學習如果用GPU 能耗會很大、但若用訂製的AI晶片能耗就比較小 同樣的,光達方案的能耗也不一定 ※ 編輯: Scape (1.34.252.81), 05/06/2019 14:52:03

05/06 14:43, 6年前 , 48F
推 感謝分享
05/06 14:43, 48F

05/06 16:17, 6年前 , 49F

05/06 16:28, 6年前 , 50F
還有一種是超高精度的GPS和電信定位方法,不過這已經
05/06 16:28, 50F

05/06 16:28, 6年前 , 51F
涉及車聯網工程了,目前來看斷網也要能安全駕駛似乎是
05/06 16:28, 51F

05/06 16:28, 6年前 , 52F
目前自駕產業的共識
05/06 16:28, 52F

05/06 21:46, 6年前 , 53F
優文推
05/06 21:46, 53F

05/06 22:53, 6年前 , 54F
推好文
05/06 22:53, 54F

05/07 00:19, 6年前 , 55F
自駕產業應該從未考慮過車聯網這種口號產品就是...
05/07 00:19, 55F

05/07 22:29, 6年前 , 56F
推,自己就是做SLAM相關研究的,目前大多都還是要
05/07 22:29, 56F

05/07 22:29, 6年前 , 57F
靠LiDAR做輔助,純的Vision要做到優秀的深度還原難
05/07 22:29, 57F

05/07 22:29, 6年前 , 58F
度還真不小。
05/07 22:29, 58F

05/07 22:32, 6年前 , 59F
推!好文!
05/07 22:32, 59F

05/07 22:33, 6年前 , 60F
GPS+基地臺變成會有遮蔽的問題,而且商用GPS的dri
05/07 22:33, 60F

05/07 22:33, 6年前 , 61F
ft不是普通的小,Google那是有神一般的演算法才做
05/07 22:33, 61F

05/07 22:33, 6年前 , 62F
到神定位。
05/07 22:33, 62F

05/07 22:38, 6年前 , 63F
這位教授也有一段半小時多和馬斯克的對談影片也不錯
05/07 22:38, 63F

05/07 22:39, 6年前 , 64F
車用應該都聲納雷達啦,在空氣中衰減很大,距離不
05/07 22:39, 64F

05/07 22:39, 6年前 , 65F
遠,也不穩
05/07 22:39, 65F
文章代碼(AID): #1SpsCQor (car)