[分享] 全自動駕駛兩套方案:視覺辨識與光達
這篇文章是根據MIT 科學家Lex Fridman 的自動駕駛講座的部分內容而寫成的,
主要來介紹一下目前全自動駕駛所用到的各種感應器其優點與缺點。
https://i.imgur.com/BMK347H.png

目前全自動駕駛的發展大致上有兩種方案,一是視覺辨識加上深度學習,第二種
則是光達(Lidar)加上高精度地圖。另外這兩種方案都還是會用上例如雷達、超
音波雷達等感應器。
‧視覺辨識加深度學習方案
‧優點:
‧擁有最高解析度的資訊
‧大規模搜集資料與深度學習的可行性高
‧道路原先就是設計給人類的視覺使用
‧便宜
‧缺點:
‧不精確(如果沒有大量數據的話)
‧(深度學習)不可解釋、不一致
‧光達加高精度地圖方案:
‧優點:
‧可解釋、一致
‧精確
‧缺點:
‧不會隨時間經過而改善
‧(光達、製作高精度地圖)貴
而這兩套方案所用的感應器,例如雷達(Radar)、光達(Lidar)、相機(Camera)、
超音波雷達(Ultrasonic)等特性也不同以下介紹這些感應器的主要特點:
https://i.imgur.com/1u0oLqF.png

‧雷達:便宜、在極端天氣下工作狀況良好,但解析度低,是最常被用來檢測
及追蹤物體的感應器。
https://i.imgur.com/sYqLYwX.png

‧光達:造價貴,對於檢測深度(與物體之間的距離)極度精確,解析度要比雷達
來的高,擁有360度的可視範圍。
https://i.imgur.com/SsFAyU4.png

‧相機:便宜,有著高解析度,可蒐集巨量數據做為深度學習之用,但對於深度
的估計很差,在極端天氣下的工作狀況也不好。
下面這四張圖則是代表了這些感應器在各種光線與天氣條件之下其感應距離與靈
敏度的變化:
https://i.imgur.com/e4sOogJ.png


而若是以
Proximity detection (接近or距離檢測)
Range (範圍)
Resolution (解析度)
Works in dark (黑暗中工作狀況)
Works in bright (明亮時工作狀況)
Works in snow/rain/fog (在雪/雨/霧中的工作狀況)
Provide colour/contrast (提供色彩/對比資訊)
Detects speed (檢測速度)
Sensor size (感應器體積)
Sensor cost (感應器成本)
這幾項做為指標的話,那各種感應器的表現如下:
光達:
https://i.imgur.com/lpv5ZWT.png



相機(被動視覺):
https://i.imgur.com/u4ovri8.png

而在使用視覺辨識加上深度學習的這一項方案中,感應器融合是不可少的,將
相機、雷達、超音波雷達這三種感應器加起來可以得到以下的結果:
https://i.imgur.com/S6WX5GZ.png

而這正是Tesla 目前所使用的方案,拿來與光達方案做比較的話,可以發現這兩
種方案有以下特點:
https://i.imgur.com/1QlIhU7.png

可以發現,"相機 + 超音波雷達 + 雷達" 這些傳感器融合後就能媲美光達,而
光達不能獲取色彩/對比數據,最終同樣要加上相機,然後解決視覺辨識問題。
也就是說一但解決了視覺辨識問題,那麼只要"相機 + 超音波雷達 + 雷達"就能
覆蓋所有感應器所需要解決的事情。這也是Elon Musk 會說全自動駕駛不需要光
達的原因;至於要如何解決視覺辨識問題?那就透過深度學習來解決,而深度學
習所需要的大量數據則透過目前已經安裝在幾十萬輛Tesla 上的感應器來蒐集。
講座影片:(此篇文章用到的內容從41:55 開始)
https://youtu.be/sRxaMDDMWQQ?t=2515
講座ppt 下載:
http://bit.ly/2H0Htiz
Dr. Lex Fridman 個人網站:
https://lexfridman.com/
--
https://i.imgur.com/60khZxi.jpg


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.34.252.81
※ 文章網址: https://www.ptt.cc/bbs/car/M.1557095194.A.CB5.html
※ 編輯: Scape (1.34.252.81), 05/06/2019 06:27:53
推
05/06 06:38,
6年前
, 1F
05/06 06:38, 1F
→
05/06 06:39,
6年前
, 2F
05/06 06:39, 2F
推
05/06 06:43,
6年前
, 3F
05/06 06:43, 3F
其實透過深度學習加上相機(Tesla 前方有三個鏡頭類似人眼的視差可以製造距離感)
也能很好的判斷距離,這方面的研究很多
Tesla 也在前陣子的Tesla Autonomy Day 的展示中也有提到
光用相機得到的數據然後丟進神經網路做深度學習
所得到的距離資訊其實與用雷達檢測到的相差無幾:
(影片約2:20:44 ~ 2:21:25 這一段)
https://youtu.be/Ucp0TTmvqOE?t=8444
→
05/06 06:44,
6年前
, 4F
05/06 06:44, 4F
推
05/06 06:44,
6年前
, 5F
05/06 06:44, 5F
→
05/06 06:44,
6年前
, 6F
05/06 06:44, 6F
其實光達也不能判別顏色,這是它最大的罩門
※ 編輯: Scape (1.34.252.81), 05/06/2019 06:57:24
推
05/06 07:37,
6年前
, 7F
05/06 07:37, 7F
不會喔
雷達是發射波長較長的微波或電磁波然後接收從物體反射的微波或電磁波來測距
超音波雷達則是用人耳聽不到頻率較高的聲波
相機是被動接收可見光
光達則是用波長較短的電磁波(或是說發射雷射or光子)
不太會互相干擾,其頻率都不同
※ 編輯: Scape (1.34.252.81), 05/06/2019 07:46:42
推
05/06 07:42,
6年前
, 8F
05/06 07:42, 8F
推
05/06 07:57,
6年前
, 9F
05/06 07:57, 9F
→
05/06 08:28,
6年前
, 10F
05/06 08:28, 10F
所以Tesla 才自己設計專為自己訂製的AI 晶片,以獲取最好的效能與功耗
推
05/06 08:29,
6年前
, 11F
05/06 08:29, 11F
推
05/06 08:30,
6年前
, 12F
05/06 08:30, 12F
※ 編輯: Scape (1.34.252.81), 05/06/2019 08:40:35
推
05/06 08:45,
6年前
, 13F
05/06 08:45, 13F
推
05/06 08:48,
6年前
, 14F
05/06 08:48, 14F
→
05/06 08:48,
6年前
, 15F
05/06 08:48, 15F
推
05/06 08:50,
6年前
, 16F
05/06 08:50, 16F
→
05/06 08:55,
6年前
, 17F
05/06 08:55, 17F
推
05/06 09:02,
6年前
, 18F
05/06 09:02, 18F
推
05/06 09:15,
6年前
, 19F
05/06 09:15, 19F
推
05/06 09:18,
6年前
, 20F
05/06 09:18, 20F
推
05/06 09:23,
6年前
, 21F
05/06 09:23, 21F
推
05/06 09:35,
6年前
, 22F
05/06 09:35, 22F
→
05/06 09:35,
6年前
, 23F
05/06 09:35, 23F
→
05/06 09:38,
6年前
, 24F
05/06 09:38, 24F
→
05/06 09:38,
6年前
, 25F
05/06 09:38, 25F
這樣應該還是直接加上相機(彩色攝影機)比較快了 XD
還有一點就是光達解析度相對相機來說低很多
如果要看交通號誌、交通標誌甚至需要判別文字的話
很低的解析度也不夠用
推
05/06 09:38,
6年前
, 26F
05/06 09:38, 26F
→
05/06 09:38,
6年前
, 27F
05/06 09:38, 27F
→
05/06 09:38,
6年前
, 28F
05/06 09:38, 28F
→
05/06 09:39,
6年前
, 29F
05/06 09:39, 29F
→
05/06 09:42,
6年前
, 30F
05/06 09:42, 30F
→
05/06 09:42,
6年前
, 31F
05/06 09:42, 31F
→
05/06 09:42,
6年前
, 32F
05/06 09:42, 32F
推
05/06 09:59,
6年前
, 33F
05/06 09:59, 33F
→
05/06 10:00,
6年前
, 34F
05/06 10:00, 34F
→
05/06 10:00,
6年前
, 35F
05/06 10:00, 35F
推
05/06 10:04,
6年前
, 36F
05/06 10:04, 36F
→
05/06 10:06,
6年前
, 37F
05/06 10:06, 37F
推
05/06 10:17,
6年前
, 38F
05/06 10:17, 38F
推
05/06 10:55,
6年前
, 39F
05/06 10:55, 39F
推
05/06 11:15,
6年前
, 40F
05/06 11:15, 40F
噓
05/06 12:05,
6年前
, 41F
05/06 12:05, 41F
要判斷距離確實可以不需要用到深度學習,相對簡單的條件下一般的影像識別就能做到
但我說的是Tesla 用的方法是利用神經網路做深度學習去學怎麼只用鏡頭判斷距離
人家就在做了,怎麼會沒有關係?
這完全就在我給的影片中就有講到:
https://youtu.be/Ucp0TTmvqOE?t=8390
推
05/06 12:40,
6年前
, 42F
05/06 12:40, 42F
推
05/06 12:55,
6年前
, 43F
05/06 12:55, 43F
→
05/06 13:10,
6年前
, 44F
05/06 13:10, 44F
→
05/06 13:10,
6年前
, 45F
05/06 13:10, 45F
→
05/06 13:10,
6年前
, 46F
05/06 13:10, 46F
推
05/06 13:30,
6年前
, 47F
05/06 13:30, 47F
比較能耗要看實際的配備才能決定
深度學習如果用GPU 能耗會很大、但若用訂製的AI晶片能耗就比較小
同樣的,光達方案的能耗也不一定
※ 編輯: Scape (1.34.252.81), 05/06/2019 14:52:03
推
05/06 14:43,
6年前
, 48F
05/06 14:43, 48F
→
05/06 16:17,
6年前
, 49F
05/06 16:17, 49F
推
05/06 16:28,
6年前
, 50F
05/06 16:28, 50F
→
05/06 16:28,
6年前
, 51F
05/06 16:28, 51F
→
05/06 16:28,
6年前
, 52F
05/06 16:28, 52F
推
05/06 21:46,
6年前
, 53F
05/06 21:46, 53F
推
05/06 22:53,
6年前
, 54F
05/06 22:53, 54F
推
05/07 00:19,
6年前
, 55F
05/07 00:19, 55F
推
05/07 22:29,
6年前
, 56F
05/07 22:29, 56F
→
05/07 22:29,
6年前
, 57F
05/07 22:29, 57F
→
05/07 22:29,
6年前
, 58F
05/07 22:29, 58F
推
05/07 22:32,
6年前
, 59F
05/07 22:32, 59F
→
05/07 22:33,
6年前
, 60F
05/07 22:33, 60F
→
05/07 22:33,
6年前
, 61F
05/07 22:33, 61F
→
05/07 22:33,
6年前
, 62F
05/07 22:33, 62F
推
05/07 22:38,
6年前
, 63F
05/07 22:38, 63F
推
05/07 22:39,
6年前
, 64F
05/07 22:39, 64F
→
05/07 22:39,
6年前
, 65F
05/07 22:39, 65F