Re: [情報] 特斯拉第四季營收遠低於預期 盤後大跌逾6%

看板Stock作者 (Channel Coding)時間3月前 (2024/01/26 15:45), 3月前編輯推噓18(20249)
留言71則, 23人參與, 3月前最新討論串3/3 (看更多)
不太一樣啊 首先自駕的車子吃電池先天上就決定算力有個上限在 而自駕容錯率又低 落地場景難度相對高 現在生成式AI算力無限往上疊 在雲端上跑沒有電池綁手綁腳限制 而且可以搞出一堆花樣來 才不是啥鬼泡沫玩意QQ 有小道傳言說 祖柏克現在搞AI是覺這玩意可以幫助他的原宇宙 因為他覺得他元宇宙NPC都可以叫AI來當 Meta最近很狂 都喊出AGI口號了 微軟哪天叫暴雪裡面的NPC都用AI跑都不意外 像是這篇AI NPC用在電玩 https://arxiv.org/abs/2309.09971 且這篇paper還是微軟的 其他專案也有https://github.com/AkshitIreddy/Interactive-LLM-Powered-NPCs 老黃這次CES裡面其實也展現幾個AI NPC 對話是隨機產生 以後就是跟NPC談戀愛的時代了 -- 福利連是我的 不要跟我搶!!QQ ※ 引述《chopinmozart (aha)》之銘言: : ※ 引述《gso1987 (gso9)》之銘言: : : $TSLA目前盤前-7%… : : 其實財報聽下來沒有什麼新的壞消息 : : 要拿eps, revenue 雙miss 這種早就知道的事情來說已經晚了 : : 畢竟也沒人真的看eps買特斯拉股票 : : 財報後大跌也在意料之中 : : 華爾街期待的全年交付量預期和毛利率改善都沒給 : : $25k compact car要等到2025下半年 : : 只說了growth rate will be notably lower than 2023 : : 真是廢到笑 : : 不論如何賣不動就砍價是確定的 : : 特斯拉對於季度財報和機構投資人的態度 : : 就蠻不情願的… : : 我認為2024比較能期待的大概只剩 : : Cybertruck + updated Model 3 : : 還有Model Y改款有希望在下半年推出 : : 至於FSD V12: : : 目前測試影片看起來還可以 : : 需要推送給更多車主幫忙公測 : : 今年會是特斯拉股東痛苦的一年 : : 尤其看AI股賺到流湯 : : 老黃蘇媽創新高 : : 老馬還在半山腰 : : 真的是沒有比較沒有傷害 : : 最近又出現很多特斯拉冬天充不了電 : : 續航劇減的新聞 : : 不過和18、19年的FUD比起來真的還好 : : 那時候特斯拉是在破產邊緣 : : 和現在滿手現金不是同一個量級 : : 持股方面我是covered call已經上滿了 : : 希望明年會更好…QQ : 是這樣的 : 今日特斯拉 明日微軟 : 現在的微軟就跟兩年前的特斯拉一樣 : 靠著AI自駕車吹上天 : 從2020實現 L5 自駕吹到 2024 年 : 大家都快忘了有L5自駕車 : 而微軟現在正在走這條路 : 生成式 AI 在 2023年吹上天 : 應該2025就下去了 : 生成式 AI 說穿了就跟特斯拉的自駕車一樣 : 叫他寫文章很簡單 叫他造火箭就很抖 : copilot 就跟特斯拉的 L5 一樣吹過頭 : 特斯拉頂多就自動跟車大家敢用 現在要完全自動駕駛根本難如登天 : copilot也是頂多寫寫簡單的東西或一些周邊測試 : 很難成為主要生產工具 : 大家很快就會發現生成式AI只是寫寫文章的玩具 : 真的要變成毀滅人類的天網可能是2100年以後的事情 : 特斯拉只是第一個被看破手腳的 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.169.111.72 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1706255132.A.379.html ※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 15:47:33 ※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 15:49:02

01/26 15:48, 3月前 , 1F
meta在ai領域的確很狂,有Yann LeCun帶隊十年
01/26 15:48, 1F

01/26 15:49, 3月前 , 2F
但是meta在ar/vr的問題還是沒有改變,硬體與技術
01/26 15:49, 2F

01/26 15:50, 3月前 , 3F
還是無法解決暈眩與長時間使用的問題,目前比ai還難
01/26 15:50, 3F

01/26 15:56, 3月前 , 4F
請問大大怎麼看AMD這波
01/26 15:56, 4F

01/26 15:57, 3月前 , 5F
一半天空偏不選要選千年老阿罵 有夠瓦
01/26 15:57, 5F

01/26 15:57, 3月前 , 6F
99 AMD
01/26 15:57, 6F

01/26 16:01, 3月前 , 7F
AI沒網路就是個廢物
01/26 16:01, 7F

01/26 16:01, 3月前 , 8F
很狂嗎 社群一堆詐騙貼文原來都狂AI弄出來的
01/26 16:01, 8F

01/26 16:01, 3月前 , 9F
想了解 NV另外兩個領域,車用跟Omniverse的潛力XD
01/26 16:01, 9F

01/26 16:15, 3月前 , 10F
福利蓮開宇宙戰艦
01/26 16:15, 10F

01/26 16:17, 3月前 , 11F
老阿罵了欸 至少選肥倫吧
01/26 16:17, 11F

01/26 16:18, 3月前 , 12F
訓練跟推論是不同的 你是不是誤解了AI 的應用模式
01/26 16:18, 12F

01/26 16:24, 3月前 , 13F
以Megatron-Turing-530B 它在推論要用到40顆A100
01/26 16:24, 13F

01/26 16:24, 3月前 , 14F
AI肥倫應該超嘴吧
01/26 16:24, 14F

01/26 16:26, 3月前 , 15F
一顆A100大概是250W 如果你用ASIC這種省電 缺點就是
01/26 16:26, 15F

01/26 16:28, 3月前 , 16F
不好隨插即用
01/26 16:28, 16F

01/26 16:30, 3月前 , 17F
AI server 沒在跟妳隨插即用啦! 插上去用到整台壞掉
01/26 16:30, 17F

01/26 16:31, 3月前 , 18F
從DC抓出機器然後換一張GPU還要搞半天的成本更高
01/26 16:31, 18F

01/26 16:31, 3月前 , 19F
大部分如果可以就用軟體跳過這顆GPU,如果可以
01/26 16:31, 19F

01/26 16:32, 3月前 , 20F
怎麼看meta都是下一個炸掉的財爆
01/26 16:32, 20F

01/26 16:32, 3月前 , 21F
我在說電動車不太可能跑大模型啦 他先天有算力限制
01/26 16:32, 21F

01/26 16:33, 3月前 , 22F
祖柏克瘋了喔? 憑他那個巴黎鐵塔自拍元宇宙?
01/26 16:33, 22F

01/26 16:33, 3月前 , 23F
且隨插即用指的是模型參數架構update asic不能這樣
01/26 16:33, 23F

01/26 16:36, 3月前 , 24F
asic的確受到特定算法與模型架構限制
01/26 16:36, 24F

01/26 16:36, 3月前 , 25F
西元2024年還在頭暈quest3賣爆了
01/26 16:36, 25F

01/26 16:36, 3月前 , 26F
每種訂製的asic都有特定使用的算法與模型架構
01/26 16:36, 26F
※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 17:00:37

01/26 17:22, 3月前 , 27F
你說的不錯 只是要多久才實現
01/26 17:22, 27F

01/26 17:23, 3月前 , 28F
希望能跌倒165慢慢接
01/26 17:23, 28F

01/26 17:40, 3月前 , 29F

01/26 17:42, 3月前 , 30F
股市就是把幾十年後的夢吹來反應在當前的股價
01/26 17:42, 30F

01/26 17:53, 3月前 , 31F
本來以為臉書要下去了沒想到默默又靠AI復活,感覺
01/26 17:53, 31F

01/26 17:53, 3月前 , 32F
明明也沒什麼產品,營收也沒有吧
01/26 17:53, 32F

01/26 18:49, 3月前 , 33F
沒有夢想,人跟鹹魚有什麼差別?
01/26 18:49, 33F

01/26 19:19, 3月前 , 34F
不需要在車子上面去訓練模型吧,會放到車子上的應該
01/26 19:19, 34F

01/26 19:19, 3月前 , 35F
都是已經fine tune 過的了
01/26 19:19, 35F

01/26 20:18, 3月前 , 36F
跌到100進場
01/26 20:18, 36F

01/26 20:48, 3月前 , 37F
但 現在主機不勘負荷 想分散一些事到邊緣運算 車可
01/26 20:48, 37F

01/26 20:49, 3月前 , 38F
能不錯
01/26 20:49, 38F

01/26 21:09, 3月前 , 39F
特手機 特車 dojo 可能可以在這特架構下作什麼特化
01/26 21:09, 39F

01/26 21:09, 3月前 , 40F
過的應用 然而我們可能也在經歷二次.com 泡沫 但泡
01/26 21:09, 40F

01/26 21:09, 3月前 , 41F
沫後精彩可期 類莫語靜從不男不女的人工ai進化 並增
01/26 21:09, 41F

01/26 21:10, 3月前 , 42F
01/26 21:10, 42F

01/27 04:15, 3月前 , 43F
幾個月前中國有手遊有ai npc惹
01/27 04:15, 43F

01/27 12:21, 3月前 , 44F
車子有什麼應用需要大型模型的...你能說說看嗎
01/27 12:21, 44F
現在一堆視覺Foundation Model大模型都屌打傳統CV 但能幫助自駕的偵測 且LLM也能幫助自駕的路徑規劃 你可以看看這篇整理的LLM自駕論文總集合 https://arxiv.org/abs/2311.01043 我們現實世界需要一堆0-shot recognition 來應付在訓練數據沒看過的場景和物體 傳統CV模型無法做到泛化(0-shot) 所以場景一改變 很多算法就失效 這也是為何 大模型被認為是一個通往AGI路線 原因就是泛化(Zero-Shot)能力 而模型越大 泛化能力越強 越能做到Zero-Shot 很多Foundation Model都有良好泛化能力 然後LLM的泛化能力也可以用來解決自駕上的路徑規劃甚至理解世界 再從沒看過場景 情況事件 泛化強的大模型都能接近人類去給決策和判斷物體為何 就算是有三寶駕車 有者上帝視角的泛化模型自駕都有機會可以閃過三寶的撞擊 https://arxiv.org/abs/2312.09245 但這些大模型在Inference也是會比傳統CV更吃 記憶體和算力 這也意味者你的電動車行使里程會被因此影響到 換言之如果你要一個LV5自駕 你要的是一個全面泛化性強的模型 這也是為何大部分自駕會選在高速公路場景 因為可以相對減少泛化性的要求 當自動駕駛處理市區或一般道路時 那就是一個災難的開始 我有一個認識的在Zoox 他們曾經遇到一個情況是 有人睡在大馬路上 在一個沒泛化性的自駕(訓練資料沒看過) 車子有大機率會直接輾過去 而目前能達到良好的泛化做法就是大模型的Foundation Model/Pre-Train Model 這也是OpenAI其中一篇論文講的 泛化的達成跟你Scaling Law有關 所謂的Scaling Law 就是你模型尺寸要大 才能顯出Emergent Ability 不過我感覺你一定不知道我在說什麼 總之 歡迎加入跟我一起推福利連QQ ※ 編輯: LDPC (67.169.111.72 美國), 01/27/2024 15:40:52

01/29 13:10, 3月前 , 45F
沒注意到你有回文
01/29 13:10, 45F

01/29 13:12, 3月前 , 46F
你寫了很多字 但可以被吐槽的實在太多....
01/29 13:12, 46F

01/29 13:12, 3月前 , 47F
第一 路線規劃 跟 傳統cv 本來就是完全不同的任務
01/29 13:12, 47F

01/29 13:13, 3月前 , 48F
自動駕駛一定要在local端做 路線規劃幹嘛要在local?
01/29 13:13, 48F

01/29 13:14, 3月前 , 49F
你有看到Google的路線規劃需要到local端做的理由嗎?
01/29 13:14, 49F

01/29 13:14, 3月前 , 50F
本來就是不同的東西 稍微用點大腦就能知道了.......
01/29 13:14, 50F

01/29 13:15, 3月前 , 51F
又不是跟車子有關聯就一定要放到local端.....
01/29 13:15, 51F

01/29 13:16, 3月前 , 52F
LLM能做路線規劃 也100%一定是在雲端 不會有人想拿
01/29 13:16, 52F

01/29 13:16, 3月前 , 53F
石頭砸自己的腳
01/29 13:16, 53F

01/29 13:16, 3月前 , 54F
為了煮一頓飯造一間餐廳...
01/29 13:16, 54F

01/29 13:17, 3月前 , 55F
你說的foundation model 請問多大???
01/29 13:17, 55F

01/29 13:17, 3月前 , 56F
第二 你說的foundation model 請問多大???第二
01/29 13:17, 56F

01/29 13:18, 3月前 , 57F
LLM能做到那麼大 是源於語言的特殊性
01/29 13:18, 57F

01/29 13:19, 3月前 , 58F
不是什麼東西都加大就能好棒棒
01/29 13:19, 58F

01/29 13:23, 3月前 , 59F
Transformer確實有用到圖片處理 主要用在序列圖像處
01/29 13:23, 59F

01/29 13:23, 3月前 , 60F
這是4-5年前就有的東西
01/29 13:23, 60F

01/29 13:24, 3月前 , 61F
但是圖像處理本來就跟語言處理是完全不同的task
01/29 13:24, 61F

01/29 13:24, 3月前 , 62F
所以這方面的研究一直有,但一直做不好
01/29 13:24, 62F

01/29 13:25, 3月前 , 63F
語言本身有其特殊性 所以才能做到大模型
01/29 13:25, 63F

01/29 13:27, 3月前 , 64F
然後才有你接下來說的一系列的好處
01/29 13:27, 64F

01/29 13:27, 3月前 , 65F
不是所有都東西都能無腦加大模型都一定能work
01/29 13:27, 65F

01/29 13:28, 3月前 , 66F
這是machine learning的基本常識
01/29 13:28, 66F

01/29 13:30, 3月前 , 67F
所以回過頭來 還是一樣問題 請問你說的oundation
01/29 13:30, 67F

01/29 13:31, 3月前 , 68F
model 有多大?
01/29 13:31, 68F

01/29 13:31, 3月前 , 69F
我猜你根本不在意這種事情
01/29 13:31, 69F

01/29 13:32, 3月前 , 70F
如果能做到LLM那麼大 這算是很巨大的前進
01/29 13:32, 70F

01/29 13:39, 3月前 , 71F
你如果有學過基本的LLM原理 你就不會這麼有信心地打
01/29 13:39, 71F
文章代碼(AID): #1bisCSDv (Stock)
文章代碼(AID): #1bisCSDv (Stock)