[心得] 簡單解釋如何實現自動駕駛

看板car作者時間3年前 (2021/03/26 23:41), 3年前編輯推噓20(22251)
留言75則, 28人參與, 3年前最新討論串1/1
<<不比誰強誰弱,只講原理>> <<歡迎理性討論,勿戰廠牌>> 用一個簡單的方式來解釋目前實現自動駕駛兩大方案 ======================================= 狀況題: 小明家前面有一個蔡英文總統的人形立牌, 現在有兩個人,一個是念能力高手的瞎子,一個是智商只有20的阿呆, 請問他們如何辨識出這個立牌就是蔡英文? 瞎子是念能力高手擁有100公尺的圓, 他發動圓以後,可以輕易知道這邊有一個立牌, 但是因為他看不到,不知道立牌上面究竟是誰, 所以他自費請一個助手做小抄, 直接告訴他,只要在小明家前面的立牌,就是蔡英文 阿呆因為智力不好,雖然眼睛看的到立牌上面的圖案, 但是他分辨不出到底他看到的是蔡英文還是由達大師, 阿呆只好請了一個家教,準備了幾百張蔡英文的照片, 日夜看,晚也看, 最後經過幾個月,他終於知道那個立牌就是蔡英文了,可喜可賀 ======================================= 瞎子=Waymo=光達+高精度地圖 阿呆=Tesla=純視覺影像 ======================================= 光達就像圓,對周遭環境立體感應非常厲害,但是卻無法認得平面上圖案, 這裡的圖案指的 是路面的寬度標線,各種號誌標示 所以光達必須要搭配小抄(高精度地圖), 例如假設地上的標線從 禁行機車-->禁行汽車 高精度地圖必須跟上修改,否則車子無法分辨地上的字 優點: 1.安全性高,因為光達對周遭的掌握度高 2.如果只是在固定區域內,只要地圖維護得宜,達成LV5自動駕駛的可能性較高 缺點: 1.高精度地圖需不斷地更新,成本高昂 2.沒有地圖就無法自動駕駛 3.高精度地圖有軍事價值,如果讓其他國家拿到有資安風險 純視覺方案就像是人類的眼睛 (當然人腦比電腦厲害多了), 透過鏡頭獲得的圖片,加上其連續的變化及數學公式,分辨周遭的環境, 利用深度學習及不斷的訓練,讓電腦AI變得更聰明, 就像是圍棋打敗李世石Alphago一樣 優點: 1.通用解,一旦成功就全世界通用 2.只需要攝像頭,就可以達成自動駕駛,造車成本低廉 3.自動駕駛的表現會非常像人類 缺點: 1.阿呆真的能夠從智商20變成120嗎? 未知 2.AI訓練途中,危險性高,分辨不出橫躺的白色卡車就是例子 ======================================== Q:為何不用光達搭配視覺辨識?更完美? A:人類開車不也是只用眼睛嗎? 只要AI訓練到最後,基本上連雷達都不需要,只需要攝像頭就好  當然最後能不能成功就不一定了 Q:特斯拉為何不用光達? A:自駕的通用解勢必無法使用高精度地圖, 這樣使用光達的意義就不高了 Q:為何只有特斯拉採用視覺處理方案? A:AI訓練的關鍵就是數據,這是特斯拉最重要最有價值的東西,  每一輛在路上跑的特斯拉車子,在AP或是FSD控制的期間,  如果出現人工干預,車子的數據(攝像頭圖片)就會回傳給伺服器,  工程師再拿這些數據訓練自動駕駛的AI, 這裡的要求就是車子必須時時刻刻聯網, 目前只有特斯拉的車辦的到 Q:其他市售車廠有希望做到LV5自動駕駛嗎? 例如:福特 本田 通用... A:可以,採用光達+高精度地圖方案 但因為地圖維護成本高 只有局部範圍,例如高速公路上,或是特定城市,可以達成自動駕駛 純視覺方案因為數據來源比特斯拉少很多,AI成長速度勢必追不上特斯拉,  因為深度學習的演算法並不是秘密,關鍵是數據 Q:特斯拉的車子會越開越聰明嗎? A:AI訓練是靠超級電腦,並不是靠車上那顆晶片,  每一輛特斯拉的車子只負責收集數據,  而訓練好的AI軟體,再靠OTA更新到車上 ===================================================== 如果有其他問題,我可以就我了解的補充, 希望可以拋磚引玉讓更多人來討論自動駕駛的未來, 基本上只要在局部區域實現自動駕駛的話, 我認為Waymo的方式更安全也更容易, 馬斯克的野心很大,但是能不能成功很難講 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.15.82 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1616773315.A.34F.html ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/26/2021 23:49:25

03/26 23:54, 3年前 , 1F
視覺 大數據 5G AI唯一解
03/26 23:54, 1F
同意

03/27 00:07, 3年前 , 2F
時常連網連asus都做的到,其他車廠一定追很快。
03/27 00:07, 2F

03/27 00:09, 3年前 , 3F
美軍的砲兵車還不是一出門就連網,不然用望遠鏡?
03/27 00:09, 3F

03/27 00:11, 3年前 , 4F
追很快你確定?特斯拉都出來幾年了,連網這個部分
03/27 00:11, 4F

03/27 00:11, 3年前 , 5F
哪間車廠追上了?更何況特斯拉在被追上的過程累積
03/27 00:11, 5F

03/27 00:11, 3年前 , 6F
多少數據了,重點是數據又不是連網能力
03/27 00:11, 6F

03/27 00:16, 3年前 , 7F
我只知道用來比喻阿呆的AI阿法狗就是google開發的
03/27 00:16, 7F

03/27 00:17, 3年前 , 8F
然後瞎子的waymo光達 也是google的....自駕誰比較猛
03/27 00:17, 8F

03/27 00:17, 3年前 , 9F
應該不用說了
03/27 00:17, 9F
這裡的數據是指人為干預電腦時間點資料 究竟為何人要這樣開? 再用這組數據訓練AI 目前的狀況是: 有能力訓練AI的公司沒有造車能力,例如Google,Mobileye 有能力造車蒐集數據卻沒有分析能力,例如傳統車廠 特斯拉是少數具備兩項能力的公司 要蒐集數據勢必車上要有多顆鏡頭(Tesla是八顆) 傳統車廠還沒有這樣的車

03/27 00:18, 3年前 , 10F
攝像頭是三小?
03/27 00:18, 10F

03/27 00:24, 3年前 , 11F
Mobileye現在是鏡頭以後加Lidar。個人認為要追求高
03/27 00:24, 11F

03/27 00:24, 3年前 , 12F
準確度需要有影像+立體建模。結合兩種參數去判斷才
03/27 00:24, 12F

03/27 00:24, 3年前 , 13F
真正安全。當然成本會是能否商業化的關鍵,Tesla在
03/27 00:24, 13F

03/27 00:24, 3年前 , 14F
這方面極具優勢。
03/27 00:24, 14F
同意,在AI成熟前搭配光達是比較安全,偏偏光達目前還太貴

03/27 00:26, 3年前 , 15F
目前的AI技術對於一些死規則的東西很有用 例如圍棋
03/27 00:26, 15F

03/27 00:27, 3年前 , 16F
星海的話 也是靠完美操作贏玩家的...現在醫療AI龍頭
03/27 00:27, 16F

03/27 00:28, 3年前 , 17F
IBM都快玩不下去了...醫療這種病人數據參數很單純的
03/27 00:28, 17F

03/27 00:28, 3年前 , 18F
AI都有困難了
03/27 00:28, 18F

03/27 00:29, 3年前 , 19F
Level5 應該還很遠吧...
03/27 00:29, 19F
有夢最美 希望相隨 ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:41:46

03/27 00:36, 3年前 , 20F
Mercedes me connect與蔚來都有了,有人在用石器
03/27 00:36, 20F

03/27 00:44, 3年前 , 21F
公車也有八顆鏡頭呦
03/27 00:44, 21F
賓士現在也有配備多鏡頭(環繞車身)的車款了嗎?驚! 多鏡頭+時時聯網是蒐集數據的關鍵 中國的造車新勢力真不可小覷 個人認為傳統車廠最後還是會選擇光達方案比較實惠 現在視覺辨識要追上Tesla太難了 ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:48:30

03/27 00:52, 3年前 , 22F
這邊指的是原生整合自車身電腦的鏡頭啦QQ          像指前擋風玻璃上ADAS用的鏡頭 不是這種純粹當行車紀錄器的鏡頭 ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:54:34

03/27 01:15, 3年前 , 23F
不過我認同特斯拉的數據累積,其他硬體都可以追
03/27 01:15, 23F

03/27 01:33, 3年前 , 24F
互聯網建立車子間的溝通渠道搭配攝像頭判讀視頻呢
03/27 01:33, 24F

03/27 02:33, 3年前 , 25F
garbage in garbage out
03/27 02:33, 25F

03/27 03:09, 3年前 , 26F
civil maps不是宣稱可以做到低成本且數據量極小的
03/27 03:09, 26F

03/27 03:10, 3年前 , 27F
高精度地圖(絕對精度公分等級) 而且只用Arm cortex
03/27 03:10, 27F

03/27 04:01, 3年前 , 28F
就成立網路代駕公司啊!車子至少要L2以上,然後聯
03/27 04:01, 28F

03/27 04:01, 3年前 , 29F
網,有人在遠端幫你操控到目的地...
03/27 04:01, 29F

03/27 06:26, 3年前 , 30F
現在發展自駕車的很多是光達雷達+攝影機
03/27 06:26, 30F
攝影鏡頭一定需要,只靠光達無法辨識紅綠燈          

03/27 06:38, 3年前 , 31F
兩者都會輾過睡在路中的狗,然後去下跪
03/27 06:38, 31F

03/27 06:42, 3年前 , 32F
可見光鏡頭限制太多,尤其是高對比狀況,瞬間變瞎子
03/27 06:42, 32F

03/27 06:49, 3年前 , 33F
沒事,現在都休旅車。把底盤做高一點,讓狗死不了
03/27 06:49, 33F

03/27 08:07, 3年前 , 34F
馬斯克開大絕:辨識waymo的車並跟在其後。不用閃過危
03/27 08:07, 34F

03/27 08:07, 3年前 , 35F
險,只要閃過撞毀的waymo就夠
03/27 08:07, 35F

03/27 08:33, 3年前 , 36F
視覺辨識加光達才是最佳解
03/27 08:33, 36F
這邊提一下特斯拉跟其他車廠(福特 賓士..等)的ADAS系統有一個決定性的差異 靠視覺辨識為主的話特斯拉可以偵測不會移動的車輛 市售車廠是靠雷達偵測前方,會直接忽略靜止停等的車輛 要上到光達且具有足夠的算力才能處理靜止車輛 ※ 編輯: StarburyX (111.249.120.185 臺灣), 03/27/2021 09:16:45

03/27 09:56, 3年前 , 37F
所以在馬路上睡覺的橫躺白色貨車就是不講武德...
03/27 09:56, 37F

03/27 11:04, 3年前 , 38F
結果還是撞上靜止貨櫃了
03/27 11:04, 38F

03/27 11:15, 3年前 , 39F
視覺辨識如果是AI學習後只讓單機對實時影像做局部
03/27 11:15, 39F

03/27 11:15, 3年前 , 40F
特徵值判斷,難保不會有誤判情形。人類判斷是透過
03/27 11:15, 40F

03/27 11:15, 3年前 , 41F
幾十年生活經驗建立物體的立體構造認識,像是立體
03/27 11:15, 41F

03/27 11:15, 3年前 , 42F
圖庫,移動的裝置要做到這樣,應該不能只學習路面
03/27 11:15, 42F

03/27 11:15, 3年前 , 43F
的圖像。
03/27 11:15, 43F

03/27 12:12, 3年前 , 44F
請一個專業司機
03/27 12:12, 44F

03/27 12:15, 3年前 , 45F
看到蔡英文或尤達大師不是都應該做一樣的反應嗎?
03/27 12:15, 45F

03/27 13:09, 3年前 , 46F
說靜止物人類其實也一樣,在晚上的高速公路上 你不
03/27 13:09, 46F

03/27 13:09, 3年前 , 47F
會因為隱約看到什麼東西就踩死煞車 會到真的看見物
03/27 13:09, 47F

03/27 13:09, 3年前 , 48F
體輪廓才有反應
03/27 13:09, 48F

03/27 13:11, 3年前 , 49F
補充一下:特斯拉不用光達也因為體積大跟成本高
03/27 13:11, 49F

03/27 13:26, 3年前 , 50F
我覺得LV5最大的問題在於自駕開啟的時候車禍賠償
03/27 13:26, 50F

03/27 13:26, 3年前 , 51F
責任歸屬,如果歸屬於車廠,那跳脫率或車禍率要夠
03/27 13:26, 51F

03/27 13:26, 3年前 , 52F
低,低到車廠認為能夠負擔這成本,(即便是有保險
03/27 13:26, 52F

03/27 13:26, 3年前 , 53F
也可能導致保費大增而影響消費者購買意願), 而以
03/27 13:26, 53F

03/27 13:26, 3年前 , 54F
特斯拉現在只靠鏡頭攝影做AI視覺辨識,技術上是不
03/27 13:26, 54F

03/27 13:26, 3年前 , 55F
太可能讓跳脫率或車禍率低到他們認為能夠承擔LV5
03/27 13:26, 55F

03/27 13:27, 3年前 , 56F
可能增加的成本,而這也不是說你數據一直增加就可
03/27 13:27, 56F

03/27 13:27, 3年前 , 57F
能讓跳脫率無限的逼近0,可能等車子互相會溝通後
03/27 13:27, 57F

03/27 13:27, 3年前 , 58F
還比較有機會
03/27 13:27, 58F

03/27 13:35, 3年前 , 59F
在醫學診斷上也有類似的問題,今天誤診責任還是在
03/27 13:35, 59F

03/27 13:35, 3年前 , 60F
醫院,沒有廠商敢阿沙力說他的AI誤診他負責,這樣
03/27 13:35, 60F

03/27 13:35, 3年前 , 61F
子就注定AI只能用來輔助而已。
03/27 13:35, 61F

03/27 13:39, 3年前 , 62F
目標價多少辣 講出乃
03/27 13:39, 62F

03/27 15:18, 3年前 , 63F
應該買車時就會有但書,輔助駕駛風險自負
03/27 15:18, 63F

03/27 21:08, 3年前 , 64F
目前使用Openpilot 採用雷達+vision 做縱向處理...
03/27 21:08, 64F

03/27 21:08, 3年前 , 65F
前方有靜止車輛確實可以100%停止!
03/27 21:08, 65F

03/27 21:22, 3年前 , 66F
攝影鏡頭,什麼攝像頭。
03/27 21:22, 66F

03/27 22:00, 3年前 , 67F
事實上人也分很多等級 從 三寶 到 F1職業車手
03/27 22:00, 67F

03/27 22:01, 3年前 , 68F
三寶開車 看到白色橫躺貨車 搞不好也是直直撞上去
03/27 22:01, 68F

03/27 22:06, 3年前 , 69F
三寶開,就算是正常行駛的也是用力幹下去啦
03/27 22:06, 69F

03/28 22:59, 3年前 , 70F
局部範圍就不叫Lv5好嘛.....定義看清楚
03/28 22:59, 70F

03/28 23:01, 3年前 , 71F
單一系統感知有侷限 所以主流才搞Lidar+視覺+雷達啊
03/28 23:01, 71F

03/28 23:03, 3年前 , 72F
Tesla問題在視覺無法正確感知下沒有別套方案cover啊
03/28 23:03, 72F

03/28 23:07, 3年前 , 73F
而且高精地圖中沒有移動人車,lidar也能夠正確感知
03/28 23:07, 73F

03/28 23:10, 3年前 , 74F
判斷人車上,lidar是很明確知道有物體在那,vision
03/28 23:10, 74F

03/28 23:12, 3年前 , 75F
是依每個成像再經訓練(深度學習)辨識出人車
03/28 23:12, 75F
文章代碼(AID): #1WNW33DF (car)