Re: [情報] 特斯拉第四季營收遠低於預期 盤後大跌逾6%
不太一樣啊 首先自駕的車子吃電池先天上就決定算力有個上限在
而自駕容錯率又低 落地場景難度相對高 現在生成式AI算力無限往上疊
在雲端上跑沒有電池綁手綁腳限制 而且可以搞出一堆花樣來 才不是啥鬼泡沫玩意QQ
有小道傳言說 祖柏克現在搞AI是覺這玩意可以幫助他的原宇宙
因為他覺得他元宇宙NPC都可以叫AI來當 Meta最近很狂 都喊出AGI口號了
微軟哪天叫暴雪裡面的NPC都用AI跑都不意外
像是這篇AI NPC用在電玩 https://arxiv.org/abs/2309.09971 且這篇paper還是微軟的
其他專案也有https://github.com/AkshitIreddy/Interactive-LLM-Powered-NPCs
老黃這次CES裡面其實也展現幾個AI NPC 對話是隨機產生 以後就是跟NPC談戀愛的時代了
--
福利連是我的 不要跟我搶!!QQ
※ 引述《chopinmozart (aha)》之銘言:
: ※ 引述《gso1987 (gso9)》之銘言:
: : $TSLA目前盤前-7%…
: : 其實財報聽下來沒有什麼新的壞消息
: : 要拿eps, revenue 雙miss 這種早就知道的事情來說已經晚了
: : 畢竟也沒人真的看eps買特斯拉股票
: : 財報後大跌也在意料之中
: : 華爾街期待的全年交付量預期和毛利率改善都沒給
: : $25k compact car要等到2025下半年
: : 只說了growth rate will be notably lower than 2023
: : 真是廢到笑
: : 不論如何賣不動就砍價是確定的
: : 特斯拉對於季度財報和機構投資人的態度
: : 就蠻不情願的…
: : 我認為2024比較能期待的大概只剩
: : Cybertruck + updated Model 3
: : 還有Model Y改款有希望在下半年推出
: : 至於FSD V12:
: : 目前測試影片看起來還可以
: : 需要推送給更多車主幫忙公測
: : 今年會是特斯拉股東痛苦的一年
: : 尤其看AI股賺到流湯
: : 老黃蘇媽創新高
: : 老馬還在半山腰
: : 真的是沒有比較沒有傷害
: : 最近又出現很多特斯拉冬天充不了電
: : 續航劇減的新聞
: : 不過和18、19年的FUD比起來真的還好
: : 那時候特斯拉是在破產邊緣
: : 和現在滿手現金不是同一個量級
: : 持股方面我是covered call已經上滿了
: : 希望明年會更好…QQ
: 是這樣的
: 今日特斯拉 明日微軟
: 現在的微軟就跟兩年前的特斯拉一樣
: 靠著AI自駕車吹上天
: 從2020實現 L5 自駕吹到 2024 年
: 大家都快忘了有L5自駕車
: 而微軟現在正在走這條路
: 生成式 AI 在 2023年吹上天
: 應該2025就下去了
: 生成式 AI 說穿了就跟特斯拉的自駕車一樣
: 叫他寫文章很簡單 叫他造火箭就很抖
: copilot 就跟特斯拉的 L5 一樣吹過頭
: 特斯拉頂多就自動跟車大家敢用 現在要完全自動駕駛根本難如登天
: copilot也是頂多寫寫簡單的東西或一些周邊測試
: 很難成為主要生產工具
: 大家很快就會發現生成式AI只是寫寫文章的玩具
: 真的要變成毀滅人類的天網可能是2100年以後的事情
: 特斯拉只是第一個被看破手腳的
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.169.111.72 (美國)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1706255132.A.379.html
※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 15:47:33
※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 15:49:02
推
01/26 15:48,
3月前
, 1F
01/26 15:48, 1F
→
01/26 15:49,
3月前
, 2F
01/26 15:49, 2F
→
01/26 15:50,
3月前
, 3F
01/26 15:50, 3F
推
01/26 15:56,
3月前
, 4F
01/26 15:56, 4F
→
01/26 15:57,
3月前
, 5F
01/26 15:57, 5F
推
01/26 15:57,
3月前
, 6F
01/26 15:57, 6F
推
01/26 16:01,
3月前
, 7F
01/26 16:01, 7F
推
01/26 16:01,
3月前
, 8F
01/26 16:01, 8F
推
01/26 16:01,
3月前
, 9F
01/26 16:01, 9F
噓
01/26 16:15,
3月前
, 10F
01/26 16:15, 10F
推
01/26 16:17,
3月前
, 11F
01/26 16:17, 11F
推
01/26 16:18,
3月前
, 12F
01/26 16:18, 12F
→
01/26 16:24,
3月前
, 13F
01/26 16:24, 13F
推
01/26 16:24,
3月前
, 14F
01/26 16:24, 14F
→
01/26 16:26,
3月前
, 15F
01/26 16:26, 15F
→
01/26 16:28,
3月前
, 16F
01/26 16:28, 16F
推
01/26 16:30,
3月前
, 17F
01/26 16:30, 17F
→
01/26 16:31,
3月前
, 18F
01/26 16:31, 18F
→
01/26 16:31,
3月前
, 19F
01/26 16:31, 19F
→
01/26 16:32,
3月前
, 20F
01/26 16:32, 20F
→
01/26 16:32,
3月前
, 21F
01/26 16:32, 21F
→
01/26 16:33,
3月前
, 22F
01/26 16:33, 22F
→
01/26 16:33,
3月前
, 23F
01/26 16:33, 23F
推
01/26 16:36,
3月前
, 24F
01/26 16:36, 24F
推
01/26 16:36,
3月前
, 25F
01/26 16:36, 25F
→
01/26 16:36,
3月前
, 26F
01/26 16:36, 26F
※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 17:00:37
推
01/26 17:22,
3月前
, 27F
01/26 17:22, 27F
推
01/26 17:23,
3月前
, 28F
01/26 17:23, 28F
推
01/26 17:40,
3月前
, 29F
01/26 17:40, 29F
→
01/26 17:42,
3月前
, 30F
01/26 17:42, 30F
→
01/26 17:53,
3月前
, 31F
01/26 17:53, 31F
→
01/26 17:53,
3月前
, 32F
01/26 17:53, 32F
推
01/26 18:49,
3月前
, 33F
01/26 18:49, 33F
推
01/26 19:19,
3月前
, 34F
01/26 19:19, 34F
→
01/26 19:19,
3月前
, 35F
01/26 19:19, 35F
推
01/26 20:18,
3月前
, 36F
01/26 20:18, 36F
推
01/26 20:48,
3月前
, 37F
01/26 20:48, 37F
→
01/26 20:49,
3月前
, 38F
01/26 20:49, 38F
推
01/26 21:09,
3月前
, 39F
01/26 21:09, 39F
→
01/26 21:09,
3月前
, 40F
01/26 21:09, 40F
→
01/26 21:09,
3月前
, 41F
01/26 21:09, 41F
→
01/26 21:10,
3月前
, 42F
01/26 21:10, 42F
→
01/27 04:15,
3月前
, 43F
01/27 04:15, 43F
噓
01/27 12:21,
3月前
, 44F
01/27 12:21, 44F
現在一堆視覺Foundation Model大模型都屌打傳統CV 但能幫助自駕的偵測
且LLM也能幫助自駕的路徑規劃 你可以看看這篇整理的LLM自駕論文總集合
https://arxiv.org/abs/2311.01043
我們現實世界需要一堆0-shot recognition 來應付在訓練數據沒看過的場景和物體
傳統CV模型無法做到泛化(0-shot) 所以場景一改變 很多算法就失效 這也是為何
大模型被認為是一個通往AGI路線 原因就是泛化(Zero-Shot)能力
而模型越大 泛化能力越強 越能做到Zero-Shot 很多Foundation Model都有良好泛化能力
然後LLM的泛化能力也可以用來解決自駕上的路徑規劃甚至理解世界 再從沒看過場景
情況事件 泛化強的大模型都能接近人類去給決策和判斷物體為何 就算是有三寶駕車
有者上帝視角的泛化模型自駕都有機會可以閃過三寶的撞擊
https://arxiv.org/abs/2312.09245 但這些大模型在Inference也是會比傳統CV更吃
記憶體和算力 這也意味者你的電動車行使里程會被因此影響到
換言之如果你要一個LV5自駕 你要的是一個全面泛化性強的模型
這也是為何大部分自駕會選在高速公路場景 因為可以相對減少泛化性的要求
當自動駕駛處理市區或一般道路時 那就是一個災難的開始 我有一個認識的在Zoox
他們曾經遇到一個情況是 有人睡在大馬路上 在一個沒泛化性的自駕(訓練資料沒看過)
車子有大機率會直接輾過去
而目前能達到良好的泛化做法就是大模型的Foundation Model/Pre-Train Model
這也是OpenAI其中一篇論文講的 泛化的達成跟你Scaling Law有關 所謂的Scaling Law
就是你模型尺寸要大 才能顯出Emergent Ability 不過我感覺你一定不知道我在說什麼
總之 歡迎加入跟我一起推福利連QQ
※ 編輯: LDPC (67.169.111.72 美國), 01/27/2024 15:40:52
→
01/29 13:10,
3月前
, 45F
01/29 13:10, 45F
→
01/29 13:12,
3月前
, 46F
01/29 13:12, 46F
→
01/29 13:12,
3月前
, 47F
01/29 13:12, 47F
→
01/29 13:13,
3月前
, 48F
01/29 13:13, 48F
→
01/29 13:14,
3月前
, 49F
01/29 13:14, 49F
→
01/29 13:14,
3月前
, 50F
01/29 13:14, 50F
→
01/29 13:15,
3月前
, 51F
01/29 13:15, 51F
→
01/29 13:16,
3月前
, 52F
01/29 13:16, 52F
→
01/29 13:16,
3月前
, 53F
01/29 13:16, 53F
→
01/29 13:16,
3月前
, 54F
01/29 13:16, 54F
→
01/29 13:17,
3月前
, 55F
01/29 13:17, 55F
→
01/29 13:17,
3月前
, 56F
01/29 13:17, 56F
→
01/29 13:18,
3月前
, 57F
01/29 13:18, 57F
→
01/29 13:19,
3月前
, 58F
01/29 13:19, 58F
→
01/29 13:23,
3月前
, 59F
01/29 13:23, 59F
→
01/29 13:23,
3月前
, 60F
01/29 13:23, 60F
→
01/29 13:24,
3月前
, 61F
01/29 13:24, 61F
→
01/29 13:24,
3月前
, 62F
01/29 13:24, 62F
→
01/29 13:25,
3月前
, 63F
01/29 13:25, 63F
→
01/29 13:27,
3月前
, 64F
01/29 13:27, 64F
→
01/29 13:27,
3月前
, 65F
01/29 13:27, 65F
→
01/29 13:28,
3月前
, 66F
01/29 13:28, 66F
→
01/29 13:30,
3月前
, 67F
01/29 13:30, 67F
→
01/29 13:31,
3月前
, 68F
01/29 13:31, 68F
→
01/29 13:31,
3月前
, 69F
01/29 13:31, 69F
→
01/29 13:32,
3月前
, 70F
01/29 13:32, 70F
→
01/29 13:39,
3月前
, 71F
01/29 13:39, 71F
討論串 (同標題文章)
完整討論串 (本文為第 3 之 3 篇):