[討論] 光達與毫米波雷達 自駕技術的未來之戰

看板car作者 (Zen)時間3年前 (2021/03/25 11:07), 3年前編輯推噓9(13480)
留言97則, 20人參與, 3年前最新討論串1/1
https://youtu.be/bPaSqgg7aws
今天網路有一位曲博士分析了未來自駕技術所使用的雷達與光達的差異 並大膽分析特斯拉未來自駕技術的選擇 因為影片很長相信大多數人不會看完 所以總結一下 特斯拉目前硬體配置能否在未來升級到LV2以上? 特斯拉目前搭配正前方的三個影像感測器作為偵測前中後車況 搭配AI演算,在數據量足夠分析後,有可能能達成 但曲博並不看好 為何人類兩個眼睛就能開車,特斯拉三個影像感測器的即時訊息量還不足以達成自駕? 人類兩個眼睛可以抓到同一物體的成像差別,足以判斷物體的遠近。並且人類眼睛對焦極 快,處理影像的速度也比電腦快,所以兩隻眼睛即能開車。 而特斯拉的三個鏡頭畫素太低,且都只能定焦前中後還需做影像處理,所以目前無法對多 變的路況做即時的分析。 光達與雷達兩者的優缺點為何? 雷達分辨率太低,角解析度量產只能做到2-5度,路況無法做精確的偵測。 但是價格便宜,且能跟車體做較好的整合 光達有很好的分辨率,但是整個硬體像個大水桶,用在車上不美觀又會有配置的麻煩,且 價格高達一萬美金大部分車廠都很難接受 光達與雷達的未來為何? 雷達分辨率正在進步,而光達的價格與體積也在進步 目前來看還不知道誰會勝出,但曲博看好光達 特斯拉未來有沒有可能採用光達? 曲博認為未來光達價格與體積都進步到一個程度,且有其他車廠採用後,特斯拉就有可能 改變目前的硬體規格採用光達。 其他的論點還有特斯拉明明沒有自動駕駛,取名卻叫做Auto Pilot有點誤導消費者,特斯 拉不想被加州監管,這樣子的行為在一個與生命有關的造車行業是不正確的。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.52.63.194 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1616641664.A.C3C.html

03/25 11:11, 3年前 , 1F
這樣打馬神跟信徒的臉很不厚道啦
03/25 11:11, 1F

03/25 11:14, 3年前 , 2F
3個鏡頭?前中後?基本調查都沒做好就來評論?
03/25 11:14, 2F
※ 編輯: POWERSERIES (27.52.63.194 臺灣), 03/25/2021 11:17:14

03/25 11:18, 3年前 , 3F
知不知道人開車的反應時間是多少?看到不動手?
03/25 11:18, 3F
※ 編輯: POWERSERIES (27.52.63.194 臺灣), 03/25/2021 11:19:44

03/25 11:23, 3年前 , 4F
曲博士的背景是??
03/25 11:23, 4F

03/25 11:24, 3年前 , 5F
畫素太低的確可以嘴 但前三鏡頭的左右兩隻就等同於
03/25 11:24, 5F

03/25 11:24, 3年前 , 6F
人的雙眼可以有距離資訊 486的eyesight也是這樣幹
03/25 11:24, 6F

03/25 11:24, 3年前 , 7F
03/25 11:24, 7F

03/25 11:26, 3年前 , 8F
畫素低就會造成看不夠遠 但他怎麼知道畫素多低?行
03/25 11:26, 8F

03/25 11:26, 3年前 , 9F
車記錄器錄的不見得等於sensor的原始解析度啊
03/25 11:26, 9F
曲博有提到這個技術,但特斯拉似乎選擇用AI做deep learning 計算距離的方式。 ※ 編輯: POWERSERIES (27.52.63.194 臺灣), 03/25/2021 11:29:12

03/25 11:29, 3年前 , 10F
光達要搭配高精地圖 這點就GG了啦 不是普遍方案
03/25 11:29, 10F

03/25 11:29, 3年前 , 11F
要用高精地圖 注定只有在地車企能做
03/25 11:29, 11F

03/25 11:30, 3年前 , 12F
沒有國家會讓其他非本國車企掌握高精地圖的
03/25 11:30, 12F

03/25 11:31, 3年前 , 13F
Tesla的視覺辨識 神經網路訓練才 有可能 成功
03/25 11:31, 13F

03/25 11:31, 3年前 , 14F
只能說 有可能 成功
03/25 11:31, 14F

03/25 11:31, 3年前 , 15F
如果像waymo這樣 我就是只做一個區域 也行
03/25 11:31, 15F

03/25 11:32, 3年前 , 16F
看車企的目標擺在哪 就會決定往哪走
03/25 11:32, 16F

03/25 11:33, 3年前 , 17F
高精地圖精密到幾公分的程度 這資安問題太嚴重
03/25 11:33, 17F

03/25 11:34, 3年前 , 18F
深度跟ai完全無關吧 他在鬼扯什麼
03/25 11:34, 18F

03/25 11:34, 3年前 , 19F
光達 目前都是要搭配 高精地圖 這是很棒的區域解
03/25 11:34, 19F

03/25 11:34, 3年前 , 20F
現在硬體的神經網路影像輸入解析度都不會太大,放4
03/25 11:34, 20F

03/25 11:34, 3年前 , 21F
K sensor最後也要縮小再餵入,光達掃出來的矩陣解
03/25 11:34, 21F

03/25 11:34, 3年前 , 22F
析度也很低
03/25 11:34, 22F

03/25 11:35, 3年前 , 23F
深度是純光學跟數學
03/25 11:35, 23F

03/25 11:36, 3年前 , 24F
沒錯 深度學習是純光學+數學
03/25 11:36, 24F

03/25 11:37, 3年前 , 25F
如果搭配Garmin的圖資
03/25 11:37, 25F

03/25 11:41, 3年前 , 26F
光達+高速晶片,車可能直接產生智能視覺+高精地圖
03/25 11:41, 26F

03/25 11:42, 3年前 , 27F
高精地圖跟garmin或估狗圖資等級差太多
03/25 11:42, 27F

03/25 11:42, 3年前 , 28F
就看車商要否把資訊上傳變資料庫,地圖商死光光
03/25 11:42, 28F

03/25 11:42, 3年前 , 29F
這些都是幾年前就知道的東西了..
03/25 11:42, 29F

03/25 11:43, 3年前 , 30F
p光達的目的是判斷車在高精地圖上的哪一點用
03/25 11:43, 30F

03/25 11:44, 3年前 , 31F
高精地圖的產生可能不是你開過去 就有的
03/25 11:44, 31F

03/25 11:44, 3年前 , 32F
高精地圖準確度達到幾公分的等級
03/25 11:44, 32F

03/25 11:45, 3年前 , 33F
目前汽車車上晶片的算力 是沒辦法達到這種程度的
03/25 11:45, 33F

03/25 11:45, 3年前 , 34F
特斯拉深度學習也是用dojo超級電腦訓練
03/25 11:45, 34F

03/25 11:46, 3年前 , 35F
主要還是電腦對圖形判斷太差
03/25 11:46, 35F

03/25 11:46, 3年前 , 36F
跟車上的晶片沒什麼關係
03/25 11:46, 36F
還有 21 則推文
還有 1 段內文
03/25 12:17, 3年前 , 58F
Tesla不是用3鏡頭 曲低能 做好功課再來
03/25 12:17, 58F

03/25 12:21, 3年前 , 59F
軟體才是關鍵
03/25 12:21, 59F

03/25 12:24, 3年前 , 60F
影片有解釋下雨光達就失效基本還是視覺作用,那下
03/25 12:24, 60F

03/25 12:24, 3年前 , 61F
雨可以自駕為何晴天就不能?精度較低不等於不能
03/25 12:24, 61F

03/25 12:29, 3年前 , 62F
幫Lin大補充一下 Tesla是用8顆鏡頭在訓練
03/25 12:29, 62F

03/25 12:34, 3年前 , 63F
目前來看,混合影像+光達較能面對環境變數
03/25 12:34, 63F

03/25 12:38, 3年前 , 64F
樓上從哪裡看出來的
03/25 12:38, 64F

03/25 12:44, 3年前 , 65F
plug大 完全誤會這些東西的能力了 有空我發一篇
03/25 12:44, 65F

03/25 12:46, 3年前 , 66F
除了天氣,光達有反射率的差異,辨識距離會縮短,
03/25 12:46, 66F

03/25 12:48, 3年前 , 67F
還有噪訊,都會環境單純,在鄉村會搞死AI
03/25 12:48, 67F

03/25 12:49, 3年前 , 68F
舉例,90度正面,光達看鐵門300米、混凝土150、土
03/25 12:49, 68F

03/25 12:54, 3年前 , 69F
牆60,若時速90,偵測到牆要AI多遠開始煞車到停?
03/25 12:54, 69F

03/25 12:59, 3年前 , 70F
有勞S大,我只是對air bone 跟TSLR應用有興趣
03/25 12:59, 70F

03/25 13:02, 3年前 , 71F
他的youtube 有很多謬論 當科普看就好
03/25 13:02, 71F

03/25 13:24, 3年前 , 72F
主要還是在感知這塊,電腦遠不如人類,電腦99%情況
03/25 13:24, 72F

03/25 13:24, 3年前 , 73F
做得比人類駕駛好,但還是卻會發生離譜錯誤
03/25 13:24, 73F

03/25 13:25, 3年前 , 74F
摻在一起就好啦,沒有影像辨識怎麼可能完全掌控路況
03/25 13:25, 74F

03/25 13:29, 3年前 , 75F
主流是多感應器融合(sensor fusion),Tesla擺明不
03/25 13:29, 75F

03/25 13:29, 3年前 , 76F
用lidar,那在視覺無法辨識&濾掉毫米波雷達的靜止
03/25 13:29, 76F

03/25 13:29, 3年前 , 77F
物量測資訊下,就變成災難啊
03/25 13:29, 77F

03/25 13:32, 3年前 , 78F
視覺在lane tracking的應用上就很成功,但全都丟給
03/25 13:32, 78F

03/25 13:32, 3年前 , 79F
視覺&深度學習,有夢最美囉
03/25 13:32, 79F

03/25 14:18, 3年前 , 80F
看到白灰的翻覆貨車頂以為是天空就不意外了
03/25 14:18, 80F

03/25 16:41, 3年前 , 81F
特斯拉的戰略蠻正確的,lidar又貴整合難度又高,
03/25 16:41, 81F

03/25 16:42, 3年前 , 82F
裝這個根本拖累上市時程,至於少裝的後果就打媒體戰
03/25 16:42, 82F

03/25 16:42, 3年前 , 83F
解決就好
03/25 16:42, 83F

03/25 19:23, 3年前 , 84F
Lidar也不是萬靈丹啦!即時有lidar資訊,還是需要
03/25 19:23, 84F

03/25 19:23, 3年前 , 85F
去做後處理跟分類!一樣會有分錯類的可能性
03/25 19:23, 85F

03/26 12:45, 3年前 , 86F
我猜馬斯克打的算盤是幾年之後顯卡晶片效能滿出來
03/26 12:45, 86F

03/26 12:46, 3年前 , 87F
所以他的演算法賭的是軟改硬幹
03/26 12:46, 87F

03/26 17:34, 3年前 , 88F
影像辨識解析度會影響判斷結果沒錯,但是電腦需要的
03/26 17:34, 88F

03/26 17:34, 3年前 , 89F
解晰度比你想像的要低很多就能正確判斷。人眼看起來
03/26 17:34, 89F

03/26 17:35, 3年前 , 90F
根本馬賽克的東西只要training正確,ANN判斷的正確
03/26 17:35, 90F

03/26 17:35, 3年前 , 91F
率高的讓人莫名其妙。而實際上要拉高影像解析度以現
03/26 17:35, 91F

03/26 17:35, 3年前 , 92F
在的技術根本也沒有太多難度,ANN即時辨識的運算需
03/26 17:35, 92F

03/26 17:35, 3年前 , 93F
求也根本不龐大(運算慢是在training)。所以特不拉
03/26 17:35, 93F

03/26 17:36, 3年前 , 94F
高光學解析度,並不是技術難以克服,更多是不需要
03/26 17:36, 94F

03/26 17:43, 3年前 , 95F
應該是說解析度高反而增加 training 的成本與困難度
03/26 17:43, 95F

03/26 17:43, 3年前 , 96F
只要對物體有一定程度的辨別度,解析度是越低越好
03/26 17:43, 96F

03/27 11:55, 3年前 , 97F
光達是Lidar嗎
03/27 11:55, 97F
文章代碼(AID): #1WM_w0my (car)