Re: [閒聊] 在台灣,特斯拉的先進安全輔助還有優勢嗎
想簡單閒聊一下關於特斯拉的科技部分....
本身工作是寫code相關,加上有涉及到AI的相關領域....老實說我覺得特斯拉的輔助駕駛和FSD是真的蠻厲害的。
當大部分傳統車廠都還在依賴雷達等sensor來實現輔助駕駛,特斯拉早早就投入純視覺的發展,是真的很大膽也很令人驚艷。
先簡單說說我認為純視覺的優勢:
1. 極低的成本,
- 不需要額外雷達和感應器,只要有足夠數量的鏡頭即可。
- 沒有其他感應裝置,也意味著不需要考慮後續感應裝置的維護或更換成本。
- 站在工程師的角度,沒有感應器等於少了一個要考慮的變數,其實程式判斷寫起來應該會比較容易。
EX. 其他車廠即便是用感應器,也是需要搭配鏡頭的,如果這時候鏡頭和感應器的判斷互相衝突,此時要怎麼讓系統去判斷要相信哪個? 這其實是大大增加了整個程式模型的複雜性。
2. 具有很高的可應用性和規模性 (這部分比較偏向FSD,跟單純輔助駕駛關聯較低)
- 特斯拉的純視覺+AI模型,我認為當此技術未來成熟之後,是可以隨時隨地應用在任何地方的,包括未知的地區和星球XD。
講到FSD,身為科技宅的我也一直有在追蹤,先來看看特斯拉近期財報中提到其算力中心使用NVDA的GPU (H100)的數量圖變化:
https://imgur.com/8u6fqdB

可以看到在2024年,特斯拉的AI算力是爆發式的增長,這跟算力中心算力的提升曲線幾乎相符,也能看到從FSD V12.3~V12.5.X之間,其表現能力也是跟隨算力的提升有飛躍性的增長表現。
雖然官方沒有公布FSD的數據,但根據國外某個知名的民間FSD統計數據網站,整個FSD V12.X的平均表現是大約320公里才需要干預一次,這跟以前的V11版本比起來是整整進步了一倍。
如果細看到V12.5的話,幾乎是將近600公里才需要駕駛介入一次。更別說,特斯拉的AI模型還在日以繼夜的訓練當中,我覺得未來FSD的成長只會越來越快,可能會超乎我們的想像。
(應該說所有AI模型的訓練速度在未來會是我們難以想像的....)
網址 >> https://teslafsdtracker.com/
https://imgur.com/cnCxE1R

但FSD近期成長這麼快,是否已經離全自動駕駛不遠了? 我自己是覺得還沒那麼快就是,但照其AI的成長速度,應該也不會等太久。
必須說目前的表現跟Waymo比起來還是有些差距....
但從營運角度來看,一台Waymo的成本好像是30萬美元上下,假如每公里營利1美元,那就是說一台waymo的車必須跑30萬公里以上才能回本。
而特斯拉的FSD成本並沒有像Waymo那麼高(畢竟只有鏡頭...),只要FSD繼續進步,那麼未來無人計程車這個商機勢必會轉而跑到FSD這邊。
另外,還有一點就是Waymo還必須依賴高精細的地圖,這就使的Waymo難以快速規模化進而拓展到整個美國...
但是FSD並沒有這個顧慮,這也是我為什麼覺得FSD在規模化上有很大的優勢XD
雖然車版好像沒啥人在討論車用AI這塊,但我覺得車子幾乎確定是未來AI浪潮下...首當其中的載體之一。
AI和自動駕駛對於未來的汽車絕對會影響非常大,許多傳統車廠如果沒有跟上這波趨勢,我覺得可能會受到很大的影響...
不知道有沒有離題太多XD...回到原文的輔助駕駛本身,家裡有一台歪L和一台M3,我個人是覺得兩台車其基本的跟車和定速功能在高速公路的表現上其實不會相差太多....
但是必須說特斯拉輔助駕駛的加速和減速是感覺比較接近像是人在操控一樣的感覺。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.230.153.220 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/car/M.1724604178.A.BAF.html
推
08/26 01:04,
1年前
, 1F
08/26 01:04, 1F
推
08/26 01:25,
1年前
, 2F
08/26 01:25, 2F
→
08/26 01:25,
1年前
, 3F
08/26 01:25, 3F
→
08/26 02:03,
1年前
, 4F
08/26 02:03, 4F
推
08/26 02:56,
1年前
, 5F
08/26 02:56, 5F
→
08/26 03:01,
1年前
, 6F
08/26 03:01, 6F
推
08/26 03:31,
1年前
, 7F
08/26 03:31, 7F
推
08/26 06:07,
1年前
, 8F
08/26 06:07, 8F
我記憶沒錯的話 S和X的鳳凰雷達是緊急備用的 就是當鏡頭有異常或損毀時 系統會緊急調用雷達來支援
→
08/26 06:34,
1年前
, 9F
08/26 06:34, 9F
Dojo一直有在參與計算 但特斯拉也有買NVDA的晶片來協助運算 下一代Dojo晶片應該年底或明年會投產吧 算力不知道會提升多少就是
推
08/26 06:51,
1年前
, 10F
08/26 06:51, 10F
推
08/26 07:18,
1年前
, 11F
08/26 07:18, 11F
→
08/26 07:18,
1年前
, 12F
08/26 07:18, 12F
其他車廠有沒有放棄 我是不清楚 但自動駕駛應該八九不離十會影響未來車企的價值 那放棄的車廠只能等著選用第三方的來使用了 可能未來就會看到傳統車廠開始用特斯拉的車用軟體或是AI也說不定
對於像電影那樣 未來各種智能車子在路上跑的畫面 已經不是遙不可及 可能有生之年是能看到的。
→
08/26 07:54,
1年前
, 13F
08/26 07:54, 13F
→
08/26 07:54,
1年前
, 14F
08/26 07:54, 14F
單純比較單純的跟車、定速這類輔助駕駛的話 確實差不多 畢竟封閉路段的模型並不會那麼複雜
推
08/26 08:14,
1年前
, 15F
08/26 08:14, 15F
推
08/26 08:19,
1年前
, 16F
08/26 08:19, 16F
→
08/26 08:33,
1年前
, 17F
08/26 08:33, 17F
→
08/26 08:34,
1年前
, 18F
08/26 08:34, 18F
FSD的話是能用在非封閉路段 當然也要通過政府監管機關的監督審核才能上路 聽說歐洲跟中國年底前也要開放FSD 台灣的話....看看2~3年內有沒有機會吧
推
08/26 09:29,
1年前
, 19F
08/26 09:29, 19F
→
08/26 09:30,
1年前
, 20F
08/26 09:30, 20F
推
08/26 10:45,
1年前
, 21F
08/26 10:45, 21F
推
08/26 10:54,
1年前
, 22F
08/26 10:54, 22F
噓
08/26 11:14,
1年前
, 23F
08/26 11:14, 23F
→
08/26 11:14,
1年前
, 24F
08/26 11:14, 24F
→
08/26 11:44,
1年前
, 25F
08/26 11:44, 25F
噓
08/26 12:08,
1年前
, 26F
08/26 12:08, 26F
→
08/26 12:08,
1年前
, 27F
08/26 12:08, 27F
→
08/26 12:08,
1年前
, 28F
08/26 12:08, 28F
也要考慮AI是否容易學習 AI去判斷純視覺絕對比去判斷雷達+視覺要容易的多 特斯拉就是選擇純視覺 並試圖讓AI自己去學習到如火純精
→
08/26 12:38,
1年前
, 29F
08/26 12:38, 29F
推
08/26 12:47,
1年前
, 30F
08/26 12:47, 30F
噓
08/26 12:48,
1年前
, 31F
08/26 12:48, 31F
→
08/26 12:48,
1年前
, 32F
08/26 12:48, 32F
→
08/26 12:48,
1年前
, 33F
08/26 12:48, 33F
→
08/26 12:48,
1年前
, 34F
08/26 12:48, 34F
雷達+視覺 也沒那麼簡單的,何況雷達也有分成雷射雷達跟毫米波雷達..而且在雷達波長的感應下,應該金屬以外的東西都是半透明的,這跟鏡頭的視覺感知是不一樣的,這時候AI要採信哪一個本身就是一個議題。特斯拉選擇的是把分析雷達的精力放到視覺處理上面,而不是兩邊都處理...因為他們認為鏡頭的每秒位元資料量比雷達高出好幾個數量級,隨著視覺處理能力的提高,要跟雷達整合起來只會越來越不容易。
噓
08/26 13:40,
1年前
, 35F
08/26 13:40, 35F
→
08/26 13:40,
1年前
, 36F
08/26 13:40, 36F
→
08/26 13:42,
1年前
, 37F
08/26 13:42, 37F
→
08/26 13:42,
1年前
, 38F
08/26 13:42, 38F
→
08/26 13:42,
1年前
, 39F
08/26 13:42, 39F
→
08/26 13:44,
1年前
, 40F
08/26 13:44, 40F
→
08/26 13:44,
1年前
, 41F
08/26 13:44, 41F
→
08/26 13:44,
1年前
, 42F
08/26 13:44, 42F
→
08/26 13:45,
1年前
, 43F
08/26 13:45, 43F
搜嘎....長知識了,感謝指教,硬體部分確實沒了解那麼多,這樣的話就表示特斯拉確實是用超乎我想像的海量數據來彌補精準度上的誤差了,這算力真誇張
推
08/26 13:50,
1年前
, 44F
08/26 13:50, 44F
噓
08/26 14:05,
1年前
, 45F
08/26 14:05, 45F
→
08/26 14:05,
1年前
, 46F
08/26 14:05, 46F
啊? 我沒有說克服阿 我是指它是用海量視覺數據來彌補少了雷達 所帶來的誤差 我當然也知道他們在新的自駕平台重新裝了4D毫米波雷達 但他們仍然是以純視覺AI運算為主
噓
08/26 14:34,
1年前
, 47F
08/26 14:34, 47F
→
08/26 14:34,
1年前
, 48F
08/26 14:34, 48F
不見得更麻煩才對,即便是Waymo也是有用上AI才能實現全自動駕駛,它們共同點都是使用端到端的AI自駕技術,在程式架構上端到端是沒有module的概念,不需要工程師寫出海量的代碼,完全是靠AI透過感知器進來的訊息自己去認識和學習並生成代碼...
推
08/26 15:53,
1年前
, 49F
08/26 15:53, 49F
噓
08/26 18:48,
1年前
, 50F
08/26 18:48, 50F
→
08/26 18:48,
1年前
, 51F
08/26 18:48, 51F
→
08/26 18:48,
1年前
, 52F
08/26 18:48, 52F
就是因為底層邏輯複雜才更需要端到端這種生成式AI阿... 路上狀況千變萬化,單純只靠人工撰寫底層代碼和邏輯是永遠沒辦法conver全部的 而且當代碼越來越多,整個要maintain是會越來越困難的,所以業界才會開始有端到端的AI自駕方案的出現,這不僅簡化了整體代碼的數量並降低了複雜度。像是特斯拉轉成端到端後,代碼也從原本30萬行減少到幾千行,剩下的就是靠AI自己去學習,只要學習的數據量夠大,自駕技術就會越來越成熟,從V12換到端到端後,整體的大幅度進步就是很明顯的成果了。
噓
08/26 21:56,
1年前
, 53F
08/26 21:56, 53F
→
08/26 21:56,
1年前
, 54F
08/26 21:56, 54F
→
08/26 21:56,
1年前
, 55F
08/26 21:56, 55F
→
08/26 21:56,
1年前
, 56F
08/26 21:56, 56F
→
08/26 21:57,
1年前
, 57F
08/26 21:57, 57F
→
08/26 21:57,
1年前
, 58F
08/26 21:57, 58F
→
08/26 21:57,
1年前
, 59F
08/26 21:57, 59F
→
08/26 21:57,
1年前
, 60F
08/26 21:57, 60F
→
08/26 21:57,
1年前
, 61F
08/26 21:57, 61F
所以特斯拉現在就是一直在拿大量視覺影像在訓練阿 當然肯定也是耗費了不少訓練成本 但現行看到的成長結果 基本上是能確認基礎的大數據模型和學習樣本是沒有問題的 何況現在世界各地有在用FSD的車子 都能是視覺影像的素材 至於傳統的底層邏輯代碼寫再多是絕對不可能涵蓋道路駕駛會遇到的所有狀況的 這是永遠寫不完 既然寫不完 那就是透過端到端模型讓AI自己花時間去學習,終有一天就能訓練達到像人類一樣的反應和判斷。這種端到端模型技術不是只有特斯拉採用,不少自駕研發公司也都有開始在進行了,不管是透過雷達還是鏡頭。
※ 編輯: Nico0214 (149.117.216.39 臺灣), 08/27/2024 01:18:14
→
08/28 10:32,
1年前
, 62F
08/28 10:32, 62F
→
08/28 10:32,
1年前
, 63F
08/28 10:32, 63F
推
08/28 10:52,
1年前
, 64F
08/28 10:52, 64F
→
08/28 10:52,
1年前
, 65F
08/28 10:52, 65F
→
08/28 10:52,
1年前
, 66F
08/28 10:52, 66F
→
08/28 10:52,
1年前
, 67F
08/28 10:52, 67F
→
08/28 10:52,
1年前
, 68F
08/28 10:52, 68F
討論串 (同標題文章)
完整討論串 (本文為第 3 之 7 篇):