<<不比誰強誰弱,只講原理>>
<<歡迎理性討論,勿戰廠牌>>
用一個簡單的方式來解釋目前實現自動駕駛兩大方案
=======================================
狀況題:
小明家前面有一個蔡英文總統的人形立牌,
現在有兩個人,一個是念能力高手的瞎子,一個是智商只有20的阿呆,
請問他們如何辨識出這個立牌就是蔡英文?
瞎子是念能力高手擁有100公尺的圓,
他發動圓以後,可以輕易知道這邊有一個立牌,
但是因為他看不到,不知道立牌上面究竟是誰,
所以他自費請一個助手做小抄,
直接告訴他,只要在小明家前面的立牌,就是蔡英文
阿呆因為智力不好,雖然眼睛看的到立牌上面的圖案,
但是他分辨不出到底他看到的是蔡英文還是由達大師,
阿呆只好請了一個家教,準備了幾百張蔡英文的照片,
日夜看,晚也看,
最後經過幾個月,他終於知道那個立牌就是蔡英文了,可喜可賀
=======================================
瞎子=Waymo=光達+高精度地圖
阿呆=Tesla=純視覺影像
=======================================
光達就像圓,對周遭環境立體感應非常厲害,但是卻無法認得平面上圖案,
這裡的圖案指的 是路面的寬度標線,各種號誌標示
所以光達必須要搭配小抄(高精度地圖),
例如假設地上的標線從 禁行機車-->禁行汽車
高精度地圖必須跟上修改,否則車子無法分辨地上的字
優點:
1.安全性高,因為光達對周遭的掌握度高
2.如果只是在固定區域內,只要地圖維護得宜,達成LV5自動駕駛的可能性較高
缺點:
1.高精度地圖需不斷地更新,成本高昂
2.沒有地圖就無法自動駕駛
3.高精度地圖有軍事價值,如果讓其他國家拿到有資安風險
純視覺方案就像是人類的眼睛 (當然人腦比電腦厲害多了),
透過鏡頭獲得的圖片,加上其連續的變化及數學公式,分辨周遭的環境,
利用深度學習及不斷的訓練,讓電腦AI變得更聰明,
就像是圍棋打敗李世石Alphago一樣
優點:
1.通用解,一旦成功就全世界通用
2.只需要攝像頭,就可以達成自動駕駛,造車成本低廉
3.自動駕駛的表現會非常像人類
缺點:
1.阿呆真的能夠從智商20變成120嗎? 未知
2.AI訓練途中,危險性高,分辨不出橫躺的白色卡車就是例子
========================================
Q:為何不用光達搭配視覺辨識?更完美?
A:人類開車不也是只用眼睛嗎?
只要AI訓練到最後,基本上連雷達都不需要,只需要攝像頭就好
當然最後能不能成功就不一定了
Q:特斯拉為何不用光達?
A:自駕的通用解勢必無法使用高精度地圖,
這樣使用光達的意義就不高了
Q:為何只有特斯拉採用視覺處理方案?
A:AI訓練的關鍵就是數據,這是特斯拉最重要最有價值的東西,
每一輛在路上跑的特斯拉車子,在AP或是FSD控制的期間,
如果出現人工干預,車子的數據(攝像頭圖片)就會回傳給伺服器,
工程師再拿這些數據訓練自動駕駛的AI,
這裡的要求就是車子必須時時刻刻聯網,
目前只有特斯拉的車辦的到
Q:其他市售車廠有希望做到LV5自動駕駛嗎? 例如:福特 本田 通用...
A:可以,採用光達+高精度地圖方案
但因為地圖維護成本高
只有局部範圍,例如高速公路上,或是特定城市,可以達成自動駕駛
純視覺方案因為數據來源比特斯拉少很多,AI成長速度勢必追不上特斯拉,
因為深度學習的演算法並不是秘密,關鍵是數據
Q:特斯拉的車子會越開越聰明嗎?
A:AI訓練是靠超級電腦,並不是靠車上那顆晶片,
每一輛特斯拉的車子只負責收集數據,
而訓練好的AI軟體,再靠OTA更新到車上
=====================================================
如果有其他問題,我可以就我了解的補充,
希望可以拋磚引玉讓更多人來討論自動駕駛的未來,
基本上只要在局部區域實現自動駕駛的話,
我認為Waymo的方式更安全也更容易,
馬斯克的野心很大,但是能不能成功很難講
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.15.82 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/car/M.1616773315.A.34F.html
※ 編輯: StarburyX (111.249.15.82 臺灣), 03/26/2021 23:49:25
推
03/26 23:54,
3年前
, 1F
03/26 23:54, 1F
同意
推
03/27 00:07,
3年前
, 2F
03/27 00:07, 2F
→
03/27 00:09,
3年前
, 3F
03/27 00:09, 3F
推
03/27 00:11,
3年前
, 4F
03/27 00:11, 4F
→
03/27 00:11,
3年前
, 5F
03/27 00:11, 5F
→
03/27 00:11,
3年前
, 6F
03/27 00:11, 6F
→
03/27 00:16,
3年前
, 7F
03/27 00:16, 7F
→
03/27 00:17,
3年前
, 8F
03/27 00:17, 8F
→
03/27 00:17,
3年前
, 9F
03/27 00:17, 9F
這裡的數據是指人為干預電腦時間點資料
究竟為何人要這樣開?
再用這組數據訓練AI
目前的狀況是:
有能力訓練AI的公司沒有造車能力,例如Google,Mobileye
有能力造車蒐集數據卻沒有分析能力,例如傳統車廠
特斯拉是少數具備兩項能力的公司
要蒐集數據勢必車上要有多顆鏡頭(Tesla是八顆)
傳統車廠還沒有這樣的車
噓
03/27 00:18,
3年前
, 10F
03/27 00:18, 10F
推
03/27 00:24,
3年前
, 11F
03/27 00:24, 11F
→
03/27 00:24,
3年前
, 12F
03/27 00:24, 12F
→
03/27 00:24,
3年前
, 13F
03/27 00:24, 13F
→
03/27 00:24,
3年前
, 14F
03/27 00:24, 14F
同意,在AI成熟前搭配光達是比較安全,偏偏光達目前還太貴
→
03/27 00:26,
3年前
, 15F
03/27 00:26, 15F
→
03/27 00:27,
3年前
, 16F
03/27 00:27, 16F
→
03/27 00:28,
3年前
, 17F
03/27 00:28, 17F
→
03/27 00:28,
3年前
, 18F
03/27 00:28, 18F
→
03/27 00:29,
3年前
, 19F
03/27 00:29, 19F
有夢最美 希望相隨
※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:41:46
推
03/27 00:36,
3年前
, 20F
03/27 00:36, 20F
→
03/27 00:44,
3年前
, 21F
03/27 00:44, 21F
賓士現在也有配備多鏡頭(環繞車身)的車款了嗎?驚!
多鏡頭+時時聯網是蒐集數據的關鍵
中國的造車新勢力真不可小覷
個人認為傳統車廠最後還是會選擇光達方案比較實惠
現在視覺辨識要追上Tesla太難了
※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:48:30
→
03/27 00:52,
3年前
, 22F
03/27 00:52, 22F
這邊指的是原生整合自車身電腦的鏡頭啦QQ
像指前擋風玻璃上ADAS用的鏡頭
不是這種純粹當行車紀錄器的鏡頭
※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:54:34
→
03/27 01:15,
3年前
, 23F
03/27 01:15, 23F
推
03/27 01:33,
3年前
, 24F
03/27 01:33, 24F
→
03/27 02:33,
3年前
, 25F
03/27 02:33, 25F
→
03/27 03:09,
3年前
, 26F
03/27 03:09, 26F
→
03/27 03:10,
3年前
, 27F
03/27 03:10, 27F
→
03/27 04:01,
3年前
, 28F
03/27 04:01, 28F
→
03/27 04:01,
3年前
, 29F
03/27 04:01, 29F
推
03/27 06:26,
3年前
, 30F
03/27 06:26, 30F
攝影鏡頭一定需要,只靠光達無法辨識紅綠燈
推
03/27 06:38,
3年前
, 31F
03/27 06:38, 31F
推
03/27 06:42,
3年前
, 32F
03/27 06:42, 32F
→
03/27 06:49,
3年前
, 33F
03/27 06:49, 33F
推
03/27 08:07,
3年前
, 34F
03/27 08:07, 34F
→
03/27 08:07,
3年前
, 35F
03/27 08:07, 35F
→
03/27 08:33,
3年前
, 36F
03/27 08:33, 36F
這邊提一下特斯拉跟其他車廠(福特 賓士..等)的ADAS系統有一個決定性的差異
靠視覺辨識為主的話特斯拉可以偵測不會移動的車輛
市售車廠是靠雷達偵測前方,會直接忽略靜止停等的車輛
要上到光達且具有足夠的算力才能處理靜止車輛
※ 編輯: StarburyX (111.249.120.185 臺灣), 03/27/2021 09:16:45
推
03/27 09:56,
3年前
, 37F
03/27 09:56, 37F
噓
03/27 11:04,
3年前
, 38F
03/27 11:04, 38F
推
03/27 11:15,
3年前
, 39F
03/27 11:15, 39F
→
03/27 11:15,
3年前
, 40F
03/27 11:15, 40F
→
03/27 11:15,
3年前
, 41F
03/27 11:15, 41F
→
03/27 11:15,
3年前
, 42F
03/27 11:15, 42F
→
03/27 11:15,
3年前
, 43F
03/27 11:15, 43F
推
03/27 12:12,
3年前
, 44F
03/27 12:12, 44F
推
03/27 12:15,
3年前
, 45F
03/27 12:15, 45F
推
03/27 13:09,
3年前
, 46F
03/27 13:09, 46F
→
03/27 13:09,
3年前
, 47F
03/27 13:09, 47F
→
03/27 13:09,
3年前
, 48F
03/27 13:09, 48F
推
03/27 13:11,
3年前
, 49F
03/27 13:11, 49F
推
03/27 13:26,
3年前
, 50F
03/27 13:26, 50F
→
03/27 13:26,
3年前
, 51F
03/27 13:26, 51F
→
03/27 13:26,
3年前
, 52F
03/27 13:26, 52F
→
03/27 13:26,
3年前
, 53F
03/27 13:26, 53F
→
03/27 13:26,
3年前
, 54F
03/27 13:26, 54F
→
03/27 13:26,
3年前
, 55F
03/27 13:26, 55F
→
03/27 13:27,
3年前
, 56F
03/27 13:27, 56F
→
03/27 13:27,
3年前
, 57F
03/27 13:27, 57F
→
03/27 13:27,
3年前
, 58F
03/27 13:27, 58F
→
03/27 13:35,
3年前
, 59F
03/27 13:35, 59F
→
03/27 13:35,
3年前
, 60F
03/27 13:35, 60F
→
03/27 13:35,
3年前
, 61F
03/27 13:35, 61F
推
03/27 13:39,
3年前
, 62F
03/27 13:39, 62F
推
03/27 15:18,
3年前
, 63F
03/27 15:18, 63F
推
03/27 21:08,
3年前
, 64F
03/27 21:08, 64F
→
03/27 21:08,
3年前
, 65F
03/27 21:08, 65F
推
03/27 21:22,
3年前
, 66F
03/27 21:22, 66F
→
03/27 22:00,
3年前
, 67F
03/27 22:00, 67F
→
03/27 22:01,
3年前
, 68F
03/27 22:01, 68F
→
03/27 22:06,
3年前
, 69F
03/27 22:06, 69F
推
03/28 22:59,
3年前
, 70F
03/28 22:59, 70F
→
03/28 23:01,
3年前
, 71F
03/28 23:01, 71F
→
03/28 23:03,
3年前
, 72F
03/28 23:03, 72F
→
03/28 23:07,
3年前
, 73F
03/28 23:07, 73F
→
03/28 23:10,
3年前
, 74F
03/28 23:10, 74F
→
03/28 23:12,
3年前
, 75F
03/28 23:12, 75F