Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好

看板car作者 (York)時間3年前 (2021/04/10 16:35), 編輯推噓7(7030)
留言37則, 9人參與, 3年前最新討論串14/14 (看更多)
※ 引述《ewings (火星人當研究生)》之銘言: : ※ 引述《ykjiang (York)》之銘言: : : 維資料的技術。 : : 我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧 : : 妙設計後得到三維的資料 : 笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”! : https://www.researchgate.net/publication/250192756_Three-Dimensional_Imaging_Laser_Radars_with_Geiger-Mode_Avalanche_Photodiode_Arrays : 20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了, : 一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar 提到光達,沒有人會扯到雷射全像術吧 維基百科介紹 LiDAR 原理時附的動畫如下: https://0rz.tw/mGPEV Velodyne 出的,早期被用於電動車的 LiDAR ,Waymo 還在用的,結構如下: https://0rz.tw/xMUYJ 比較後來發展的 flash LiDAR ,的確有用到你說的感測器陣列,相關介紹可以參考 維基百科 https://en.wikipedia.org/wiki/Lidar : : 這部分也是,我一開始表達的也是 camera 的感測元件一開始就是二維的 cell 陣列 : : 一個 cell 一個 cell 讀是你要抬槓,才提出來的,然後你還提了果凍效應佐證。 : : 另外,camera 一般內部有 buffer 儲存完整的 2D data : : 輸出時才用你說的 NTSC 序列輸出,NTSC 基本上是舊時 TV 格式,高解析度的 camera : : 不用這種輸出格式了。而且 NTSC 還有奇偶交錯的問題,在處理上容易碰到另一種跟果 : : 凍效應有點類似的問題,不過這也扯遠了。 : : 其餘的輸出格式還有很多,也是各種取捨,不再贅述。 : 總歸來說,就是你自己鬼扯說啥“一維”的鬼東西,結果,CMOS的工作原理打你的臉罷了。 : CMOS要在每一個cell就將電荷轉換為電壓,就注定只能逐個掃描讀取, CMOS 將累積的電荷轉為電壓,因為每個 cell 有單獨的轉換開關,所以允許逐個轉換 實務上是採用 rolling shutter 的方式,大多一次轉換一排,造成你說的果凍效應 實際上 global shutter 的 CMOS 也發展出來了,只是現在主流還是 rolling shutter (global shutter CMOS sensor 就沒有你說的果凍效應了) : 就剛好打臉你所謂“光達是一維,而攝影機不是”的蠢說法 : : 都要消耗不少演算力了, : : 機會構成2.5D : : 癡才要額外用Lidar了。 : : 我不確定你說的 2.5D 多出的那 0.5D 指的是什麼 : 笑死,連2.5D都沒聽過,那你是要啥資格在前面鬼扯深度視覺的東西? : 第三維的資料精度只能當參考用,統計學上達不到七成的可靠度,就只配用0.5D 就一個 2.5D 各自解讀囉, 我是因為還聽過另一種 2.5D 的說法,所以才想確認你的說法 : : 不過前面推文中也有人給連結了,證明一個攝像頭就能測得深度,多個攝像頭更準確。 : 證明啥?證明用Lidar的apple公司是傻子,你才是天才? : 要用偽測距騙這種傻瓜特教教徒還不簡單? : 直接假設路人的身高是170公分,再用攝影機焦距和像素高度換算,就得到偽測距了, : 這個方式在100年前就出現了,像狙擊鏡上面就有刻度讓射手可以用人當參考物,粗略的估算距離。 : 但是如果路人身高不到150,又恰巧特別瘦,或是行進間突然彎腰,使像素高度變化率大幅改變, : 讓偽測距出現很高的誤差怎麼辦? : 你以為特斯拉之前出包,撞上橫躺地上的貨車、撞上等等紅燈的機車的事件是怎麼來的? : AI再怎麼訓練,還是會有大數據資料沒涵蓋到的少數情況。當自駕車數量增加至上千萬輛時 : 就算這些少數情況發生機率再低,在這麼大的母體數量下,發生次數也會變得很高。 : 所以對自駕系統真正負責任的公司,才會用光達等可以真測距的感測器來設計。 你覺得特斯拉的 FSD 是用這種判斷方式嗎?或者只是單張照片的判斷方式? 之前附的連結就有說它是利用多張照片綜合判斷的,人家都出專利了, 深度方面的準確度沒有 LiDAR 高,但 Tesla 覺得夠用了。 專利連結如下: https://www.teslarati.com/tesla-pure-vision-fsd-patent-elon-musk/ : : 因為車子行進間可以拍很多個對同一物體不同距離下的 frame : : 至於特斯拉是怎麼辦到的細節部分,我不知道,唯一確定的要耗費很多算力, : : 連結如下: : : 《Autopilot》AK談論AP開發細節 (2020/02) : : https://www.mobile01.com/topicdetail.php?f=741&t=6137451 : : 《Autopilot》FSD初探25-遮住鏡頭還能在路口轉彎嗎? : : https://www.mobile01.com/topicdetail.php?f=741&t=6246238 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.105.112.74 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1618043753.A.E0B.html

04/10 17:02, 3年前 , 1F
別白費力氣了 他不了解軟體的威力
04/10 17:02, 1F

04/10 17:03, 3年前 , 2F
我以為果凍效應是你提的,沒有理解你和他討論的來龍
04/10 17:03, 2F

04/10 17:03, 3年前 , 3F
去脈,不過,我覺得在車用領域中,果凍效應或許沒那
04/10 17:03, 3F

04/10 17:03, 3年前 , 4F
麼嚴重,因為軟體看到的圖和一般人眼是不一樣的。
04/10 17:03, 4F

04/10 17:03, 3年前 , 5F
一直用硬體的思維永遠沒辦法了解
04/10 17:03, 5F

04/10 17:05, 3年前 , 6F
軟體再怎麼強,還是有硬傷,不然即使是人眼辨認駕駛
04/10 17:05, 6F

04/10 17:05, 3年前 , 7F
,雷達類感測為什麼助益很大
04/10 17:05, 7F

04/10 17:25, 3年前 , 8F
我是感覺還是要結合光達去確定距離啦,純影像的話高
04/10 17:25, 8F

04/10 17:25, 3年前 , 9F
速不小心推估慢了一點會不會就出事了阿
04/10 17:25, 9F

04/10 18:40, 3年前 , 10F
開車的時候是不在意前方距離你十公分還是一公分吧..
04/10 18:40, 10F

04/10 19:42, 3年前 , 11F
Software1.0時代,原理可行,也寫不出可行的
04/10 19:42, 11F

04/10 19:44, 3年前 , 12F
以影像為基礎的立體視覺程式。現在過渡到SW2.0了
04/10 19:44, 12F

04/10 19:44, 3年前 , 13F
再輔以快速發展的平行運算硬體,一切才可行起來
04/10 19:44, 13F

04/10 19:46, 3年前 , 14F
而且現成的馬路主要是設計給人類開車用的,突發狀況
04/10 19:46, 14F

04/10 19:46, 3年前 , 15F
已經比沒有馬路的時代好很多了
04/10 19:46, 15F

04/10 19:47, 3年前 , 16F
要真的遇到濃霧等路況不好的情況,我期待將來AI懂得
04/10 19:47, 16F

04/10 19:47, 3年前 , 17F
放慢車速,甚至自己自動路邊停車了
04/10 19:47, 17F

04/10 19:54, 3年前 , 18F
有LiDAR甚至加上4D Radar再加超強CPU,神經運算器
04/10 19:54, 18F

04/10 19:55, 3年前 , 19F
等等是不是更好?這就各車廠取捨的問題了
04/10 19:55, 19F

04/10 20:06, 3年前 , 20F
期待跟實際能做到有很大的差距 我也期待有人能發明
04/10 20:06, 20F

04/10 20:07, 3年前 , 21F
出可用的arc reactor,這樣全球暖化就可以得到大幅
04/10 20:07, 21F

04/10 20:07, 3年前 , 22F
度的緩合...
04/10 20:07, 22F

04/11 00:28, 3年前 , 23F
超強cpu你要不要想想耗電的問題
04/11 00:28, 23F

04/11 02:16, 3年前 , 24F
回二樓:車用領域一般都是用Global shutter
04/11 02:16, 24F

04/11 02:26, 3年前 , 25F
回樓上:爬爬文應該不困難,特斯拉目前的AP HW3算力
04/11 02:26, 25F

04/11 02:26, 3年前 , 26F
約144Tops,功耗約100W,對比PS5約13.3Tops。
04/11 02:26, 26F

04/11 07:03, 3年前 , 27F
樓上在搞笑嗎?FLOPS和TOPs傻傻搞不清楚?PS5的單位
04/11 07:03, 27F

04/11 07:03, 3年前 , 28F
是TFLOPS,不是TOPs
04/11 07:03, 28F

04/11 07:03, 3年前 , 29F
用2080 Ti顯卡來當基準,FP32浮點計算的性能約 13.4
04/11 07:03, 29F

04/11 07:03, 3年前 , 30F
TFLOPS,而INT4性能會是430TOPS。
04/11 07:03, 30F

04/11 16:44, 3年前 , 31F
未公開文件來看 HW2.5 camera 是 rolling shutter
04/11 16:44, 31F

04/11 16:45, 3年前 , 32F
現在已經量產的HW3 不確定是不是 global shutter
04/11 16:45, 32F

04/11 16:52, 3年前 , 33F
as6633208, Musk說法,FSD立體視覺比radar,lidar快
04/11 16:52, 33F

04/11 16:53, 3年前 , 34F
radar又易受雜訊干擾,誤判率高,
04/11 16:53, 34F

04/11 16:54, 3年前 , 35F
所以等FSD立體視覺穩定後,radar會拿掉,降低複雜度
04/11 16:54, 35F

04/11 16:56, 3年前 , 36F
重點是能省錢,省下的成本可以加強其餘更重要的部分
04/11 16:56, 36F

04/11 16:57, 3年前 , 37F
工程就是這樣,錢花在刀口,不要求最好,但要夠用
04/11 16:57, 37F
文章代碼(AID): #1WSMDfuB (car)
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 14 之 14 篇):
文章代碼(AID): #1WSMDfuB (car)