Re: [新聞] 美擬放寬自駕車監管 特斯拉飆漲快10%
最近一堆低能媒體說什麼「川普政府放寬自駕車法規」,
事實根本不是放寬,而是AI 把整套舊時代的法規打爆,監管被逼著重寫一套新的驗證規
則。
先講清楚:SAE 分級早就過時了
所謂的 L0~L5 是美國一個民間組織 SAE(汽車工程師學會)自己訂的參考表格 在2014
裡面都一堆過時老人 不然就是傳統車廠老人
根本不會AI
不是政府、不是法規、沒有執照功能
原本是用來描述「駕駛 vs 系統」誰負責開車的分工
問題來了:現在的 AI 自駕根本不是模組接管的邏輯。
Tesla FSD 、Wayve、Ghost 都是端到端神經網路,直接從視覺感知預測車輛軌跡,
整個決策是統一建模出來的,根本沒有「感知模組、控制模組、駕駛可以中途接手」這種
設計。
所以你拿 SAE L3 去說 FSD 不夠格,根本就是用卡式電話去檢驗 iPhone 處理器。
以前的法規是為「人類駕駛+機械控制」設計的
舊的 FMVSS 法規管的是:
有沒有方向盤、後視鏡、煞車燈、保險桿高度
車子撞牆會不會碎
軟體幾乎沒在管,因為預設人類掌控一切
但現在是什麼?
車是 AI 在開
決策是神經網路從影像推理出來的
每次 OTA 更新都可能改變整台車的駕駛邏輯
一秒做幾千萬次浮點運算來規劃路徑
你怎麼可能還用「有沒有按鈕」、「轉向盤幾度」這種標準去管這種車?
NHTSA 推出的新制度(AV STEP / ADS NPRM)有兩大特點:
1)改用行為績效評估(Performance-Based)
不再強制你裝方向盤、鏡子
改看你實際上能不能在數百種真實場景下(交織匝道、夜間行人、突發路障)安
全
駕駛
看你 OTA 更新之後,有沒有變更穩,錯誤率有沒有下降
誰表現好,誰就能上路,不管你是多模組還是端到端
2)但對「關鍵安全模組」仍然要求冗餘與容錯能力
NHTSA 沒有全面放飛,對於煞車、轉向、主電源這種會致命的控制層,
仍然需要符合 功能安全(FuSa)標準,尤其是要能進行 MRM(最小風險動作)
換句話說:你神經網路可以出錯,但你不能讓車失控
Tesla FSD 雖是單網路決策,但底層硬體有雙煞車、雙 MCU
Waymo/Cruise 則是多感測冗餘 + 遠端接管 + ASIL-D 控制器
所以結論不是「鬆綁」,而是「重寫賽制」
舊制度問:「你裝了哪些東西?」
新制度問:「你能不能跑完所有場景,而且比人還穩?」
AI 讓車自己開了,法規也要跟上
現在的監管不是不要安全,而是:
不管你怎麼設計,只要你能證明你更穩、更聰明,就放你上場。做不到,就下線。
裝一堆光達但是會撞緩撞車一樣吃屎
這才是現在 自駕產業真正的監管邏輯。
不要再用 2014 的 SAE 分級去看 2025 的 AI 自駕車了,真的跟不上。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.19.160 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1746814635.A.7E6.html
→
05/10 02:21,
4天前
, 1F
05/10 02:21, 1F
→
05/10 02:21,
4天前
, 2F
05/10 02:21, 2F
→
05/10 02:21,
4天前
, 3F
05/10 02:21, 3F
傳統的模組式系統(比如 Waymo)確實是「每層切割清楚」,感知→語義理解→路徑規劃
→控制,每一層都可解釋、可插拔。但像 Tesla、Wayve 或 Ghost.ai 的做法,是真正把
這整條 pipeline 用一個神經網路端到端學出來。
不是「output 拿來再包」,而是:
Input:一整段影片或視覺序列
Model:Transformer 直接做 spatiotemporal encoding,
Output:直接產生 steering trajectory、heading、velocity profile(甚至
含?
)
控制決策就是 output,不再是給後面另一層邏輯套用的中間值。
如果你還用「模型輸出要再包一層框架」的邏輯去看,那是套用舊時代 modular stack
的概念。新時代 E2E 的精神,是「用一個大模型整合感知、理解與控制」,也因此才會
需要從 validation 到 regulation 重新設計驗證方式(例如 AV STEP)。
傳統模組:能用傳統軟安 (ISO 26262) 的單元測試、接口測試
端到端:一改參數,行為整體變;必須 Scenario coverage+大規模 shadow-te
st
這也是 NHTSA/加州 DMV 正在做 AV STEP、整合模型覆蓋率 (ML coverage)、on
-r
isengagement trace 的原因
所以觀念真的要更新,不然會不小心把 GPT 的理解套用到 Vision Transformer 控制網
路上,那就錯了。
※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 02:30:57
→
05/10 03:11,
4天前
, 4F
05/10 03:11, 4F
→
05/10 03:15,
4天前
, 5F
05/10 03:15, 5F
→
05/10 03:36,
4天前
, 6F
05/10 03:36, 6F
噓
05/10 03:54,
4天前
, 7F
05/10 03:54, 7F
→
05/10 03:54,
4天前
, 8F
05/10 03:54, 8F
推
05/10 03:55,
4天前
, 9F
05/10 03:55, 9F
→
05/10 03:55,
4天前
, 10F
05/10 03:55, 10F
→
05/10 04:44,
4天前
, 11F
05/10 04:44, 11F
→
05/10 04:46,
4天前
, 12F
05/10 04:46, 12F
→
05/10 04:47,
4天前
, 13F
05/10 04:47, 13F
推
05/10 05:06,
4天前
, 14F
05/10 05:06, 14F

推
05/10 05:08,
4天前
, 15F
05/10 05:08, 15F
→
05/10 05:08,
4天前
, 16F
05/10 05:08, 16F
推
05/10 07:57,
4天前
, 17F
05/10 07:57, 17F
→
05/10 07:57,
4天前
, 18F
05/10 07:57, 18F
推
05/10 08:14,
4天前
, 19F
05/10 08:14, 19F
推
05/10 08:33,
4天前
, 20F
05/10 08:33, 20F
→
05/10 08:34,
4天前
, 21F
05/10 08:34, 21F
推
05/10 08:56,
4天前
, 22F
05/10 08:56, 22F
推
05/10 09:06,
4天前
, 23F
05/10 09:06, 23F
推
05/10 09:11,
4天前
, 24F
05/10 09:11, 24F
噓
05/10 09:15,
4天前
, 25F
05/10 09:15, 25F
→
05/10 09:16,
4天前
, 26F
05/10 09:16, 26F
→
05/10 09:17,
4天前
, 27F
05/10 09:17, 27F
→
05/10 09:18,
4天前
, 28F
05/10 09:18, 28F
→
05/10 09:19,
4天前
, 29F
05/10 09:19, 29F
→
05/10 09:19,
4天前
, 30F
05/10 09:19, 30F
→
05/10 09:20,
4天前
, 31F
05/10 09:20, 31F
你把「沒有規則可以跟」跟「沒人提責任歸屬」這兩件事掛在一起,完全搞錯現在自駕車
監管的方向。
美國現在就在把所有 AI 自駕該怎麼驗證、失效時怎麼收尾,寫進正式的聯邦法規。
像 NHTSA 的 AV STEP,早就要求你模型能跑、風險場景能應付、出事能自動停車。
FMVSS 也改成要看模擬跟實測數據,不是嘴巴說過就算,測試成績要先交出來給政府看。
責任這塊更不是沒人管。Waymo、Cruise、Zoox 都已經被加州 DMV 要求買 1000 萬美元
的無過失保險,直接寫死:只要是自駕系統在開,出事你公司全包。未來 Tesla 要上無
人 permit,一樣跑不掉。
那種十字路口沒有紅綠燈、車從四面八方來的亂場景,也早就是聯邦的測試項目。現在還
規定你要交幾十萬筆 scenario、模擬通過率跟真實介入紀錄。
至於端到端 AI
現在已經證明:遇到沒有圖資、沒有車道線、交通錐亂擺,傳統 rule-based 如waymo就
會當掉,反而是像 Wayve 或 Tesla 這種 E2E 網路,用畫面直接學出「這邊該停」、「
這邊能擠」,才扛得住。
AI 自駕現在最怕的不是沒規則,是規則終於來了而且專門針對沒把模型搞清楚的人寫的
。
→
05/10 09:45,
4天前
, 32F
05/10 09:45, 32F
→
05/10 09:46,
4天前
, 33F
05/10 09:46, 33F
→
05/10 09:46,
4天前
, 34F
05/10 09:46, 34F
→
05/10 09:47,
4天前
, 35F
05/10 09:47, 35F
→
05/10 09:47,
4天前
, 36F
05/10 09:47, 36F
→
05/10 09:49,
4天前
, 37F
05/10 09:49, 37F
→
05/10 09:50,
4天前
, 38F
05/10 09:50, 38F
推
05/10 09:50,
4天前
, 39F
05/10 09:50, 39F
→
05/10 09:51,
4天前
, 40F
05/10 09:51, 40F
→
05/10 09:51,
4天前
, 41F
05/10 09:51, 41F
→
05/10 09:52,
4天前
, 42F
05/10 09:52, 42F
→
05/10 09:52,
4天前
, 43F
05/10 09:52, 43F
→
05/10 09:53,
4天前
, 44F
05/10 09:53, 44F
※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 09:58:03
推
05/10 09:57,
4天前
, 45F
05/10 09:57, 45F
噓
05/10 09:58,
4天前
, 46F
05/10 09:58, 46F
推
05/10 10:17,
4天前
, 47F
05/10 10:17, 47F
→
05/10 10:18,
4天前
, 48F
05/10 10:18, 48F
→
05/10 10:18,
4天前
, 49F
05/10 10:18, 49F
→
05/10 10:18,
4天前
, 50F
05/10 10:18, 50F
噓
05/10 10:22,
4天前
, 51F
05/10 10:22, 51F
→
05/10 10:23,
4天前
, 52F
05/10 10:23, 52F
→
05/10 10:25,
4天前
, 53F
05/10 10:25, 53F
→
05/10 10:26,
4天前
, 54F
05/10 10:26, 54F
→
05/10 10:26,
4天前
, 55F
05/10 10:26, 55F
→
05/10 10:26,
4天前
, 56F
05/10 10:26, 56F
→
05/10 10:27,
4天前
, 57F
05/10 10:27, 57F
→
05/10 10:27,
4天前
, 58F
05/10 10:27, 58F
→
05/10 10:28,
4天前
, 59F
05/10 10:28, 59F
現在監管的邏輯是「你技術怎麼玩都行,但失敗成本先買單、最壞情境先想好」。
Waymo、Tesla、Zoox 通通照這三條跑;誰都不能一句「不是我的責任」就閃人。真的要
比?就看誰的 MRM 可靠、誰的模型 pass 率高,跟你說的「喊個口號就免責」完全兩回
事。
正在修的 FMVSS 150/155 直接要求廠商提交「場景覆蓋率 & simulation pass rate」。
你的感測方案(LiDAR 也好 Vision-only 也好)踩不到 99.x% 就別想上路。
※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 11:12:39
推
05/10 11:19,
4天前
, 60F
05/10 11:19, 60F
→
05/10 11:19,
4天前
, 61F
05/10 11:19, 61F
推
05/10 12:53,
4天前
, 62F
05/10 12:53, 62F
推
05/12 09:54,
2天前
, 63F
05/12 09:54, 63F
討論串 (同標題文章)
以下文章回應了本文:
完整討論串 (本文為第 4 之 8 篇):