Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好

看板car作者 (York)時間3年前 (2021/04/08 22:54), 3年前編輯推噓11(13234)
留言49則, 13人參與, 3年前最新討論串3/14 (看更多)
從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊 三維的部分是經過一些設計、運算後得到的 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊, 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測) 以目前的技術: 距離方面,光達的精度比較高 平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊 以自動駕駛而言,兩者的精度都超過人眼了 所以關鍵還是在 AI 等其他方面 ※ 引述《airforce1101 (我不宅)》之銘言: : 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來 : 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻 : 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目 : 標,可以帶回更高精度的資訊。 : 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著 : 的這篇文章 Extended object tracking: Introduction, overview, and application. : 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達 : 先天上的差距還是存在。 : 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.105.112.74 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1617893696.A.E85.html

04/08 22:56, 3年前 , 1F
感測能力比人眼好沒問題,但感知就.....
04/08 22:56, 1F

04/08 22:58, 3年前 , 2F
我想你想說的是識別吧
04/08 22:58, 2F

04/08 22:58, 3年前 , 3F
偵測好不代表識別好
04/08 22:58, 3F

04/08 23:00, 3年前 , 4F
識別識別靠的就是後級計算能力
04/08 23:00, 4F

04/08 23:00, 3年前 , 5F
個人認為難在快速的識別
04/08 23:00, 5F

04/08 23:01, 3年前 , 6F
英文sensing(感測)和perception(感知)
04/08 23:01, 6F

04/08 23:01, 3年前 , 7F
攝像頭?那是三小?
04/08 23:01, 7F

04/08 23:02, 3年前 , 8F
鏡頭能到這樣也很屌
04/08 23:02, 8F

04/08 23:04, 3年前 , 9F
二維得到三維這說法有點怪
04/08 23:04, 9F

04/08 23:05, 3年前 , 10F
特黑不用謝
04/08 23:05, 10F

04/08 23:05, 3年前 , 11F

04/08 23:06, 3年前 , 12F
三維包含二維資訊,二維包含三維資訊嗎?
04/08 23:06, 12F

04/08 23:06, 3年前 , 13F
airforce1101跟人眼立體視覺類似原理,利用視差估算
04/08 23:06, 13F

04/08 23:08, 3年前 , 14F
攝像頭
04/08 23:08, 14F

04/08 23:08, 3年前 , 15F
這樣還是算三維嗎?是因為時間讓都是二維的數據
04/08 23:08, 15F

04/08 23:09, 3年前 , 16F
有了差值變化,沒有惡意,單純想求知,感謝。
04/08 23:09, 16F

04/08 23:10, 3年前 , 17F
光達都能把原本的測距功能經過巧妙設計變三維了
04/08 23:10, 17F

04/08 23:10, 3年前 , 18F
二維要變三維怎麼會有困難,看設計跟運算而已
04/08 23:10, 18F

04/08 23:12, 3年前 , 19F
講精度很像對岸影片硬是要提些什麼,然後根本廢話。
04/08 23:12, 19F

04/08 23:12, 3年前 , 20F
理論上光達速度可以比影像快,在於回來的光向量變
04/08 23:12, 20F

04/08 23:13, 3年前 , 21F
化,比影像變化的多
04/08 23:13, 21F

04/08 23:14, 3年前 , 22F
你鏡頭解析度超過人眼?還是算距離比較厲害?
04/08 23:14, 22F

04/08 23:14, 3年前 , 23F
這個向量的變化就是物理上的資訊了。
04/08 23:14, 23F

04/08 23:14, 3年前 , 24F
人類那麼不堪的話就別開車了吧,哈哈
04/08 23:14, 24F

04/08 23:14, 3年前 , 25F
要像人一樣的感測 你不如擺個人上去還比較便宜(x
04/08 23:14, 25F

04/08 23:14, 3年前 , 26F
靠精度就能開車,那就更別提了
04/08 23:14, 26F

04/08 23:14, 3年前 , 27F
延展性目標講的就是這向量的變化
04/08 23:14, 27F

04/08 23:15, 3年前 , 28F
特斯拉向前的鏡頭有三個,斜前方兩個,平行輸入
04/08 23:15, 28F

04/08 23:16, 3年前 , 29F
原理上應該比多數(便宜)的光達快
04/08 23:16, 29F

04/08 23:34, 3年前 , 30F
用不同原理的偵測系統是為了Double check避免誤判
04/08 23:34, 30F

04/08 23:34, 3年前 , 31F
否則十幾年前的車就有雷達測距但只警示不直接介入
04/08 23:34, 31F

04/08 23:42, 3年前 , 32F
而AI需要大量數據資料學習,特斯拉就是目前絕對領
04/08 23:42, 32F

04/08 23:42, 3年前 , 33F
先者
04/08 23:42, 33F

04/08 23:43, 3年前 , 34F
人眼的解析度其實不高,但人眼會跳動,眼珠會轉...
04/08 23:43, 34F

04/08 23:44, 3年前 , 35F
人眼就中央清楚,周邊模糊,所以要靠其他方式補足
04/08 23:44, 35F

04/08 23:46, 3年前 , 36F
這篇正解 完全說出特斯拉目前的使用方法 讚
04/08 23:46, 36F

04/08 23:53, 3年前 , 37F
其他方面來說,特斯拉專注在深度學習等AI 部分
04/08 23:53, 37F

04/08 23:54, 3年前 , 38F
其他牌比較偏向拿高精地圖補足,AI就沒那麼用力發展
04/08 23:54, 38F

04/08 23:55, 3年前 , 39F
人厲害的不是眼睛 是頭腦 (三寶除外)
04/08 23:55, 39F

04/08 23:56, 3年前 , 40F
什麼都用當然最強,但時間技術等成本差異不同,
04/08 23:56, 40F

04/08 23:56, 3年前 , 41F
就有不同取捨
04/08 23:56, 41F
※ 編輯: ykjiang (59.105.112.74 臺灣), 04/09/2021 00:03:11

04/09 00:03, 3年前 , 42F
有人不喜歡「攝像頭」,我改成「鏡頭」了
04/09 00:03, 42F

04/09 00:04, 3年前 , 43F
雖然我個人覺得「攝像頭」這個用詞比較傳神
04/09 00:04, 43F

04/09 00:13, 3年前 , 44F
今天統聯去撞機車地下道 我很好奇 自動駕駛可以避免
04/09 00:13, 44F

04/09 00:14, 3年前 , 45F
這種開錯車道高度差嗎 如果要做到應該從哪下手
04/09 00:14, 45F

04/09 00:16, 3年前 , 46F
高精度地圖
04/09 00:16, 46F

04/09 00:17, 3年前 , 47F
車頭頂部裝個可以觸發aeb的玩意就可以了吧
04/09 00:17, 47F

04/09 00:21, 3年前 , 48F
日本那個監控司機的設計可以拿來用,既使沒自駕
04/09 00:21, 48F

04/09 00:21, 3年前 , 49F
確保司機有看路,再加上疲勞偵測等等的
04/09 00:21, 49F
文章代碼(AID): #1WRnb0w5 (car)
討論串 (同標題文章)
本文引述了以下文章的的內容:
以下文章回應了本文
完整討論串 (本文為第 3 之 14 篇):
文章代碼(AID): #1WRnb0w5 (car)