Re: [新聞] 中國AI晶片業陷困境 兩大關鍵廠商消沉

看板Stock作者 (嘴砲無雙)時間3月前 (2024/01/29 11:23), 3月前編輯推噓85(883112)
留言203則, 78人參與, 3月前最新討論串6/6 (看更多)
前一篇文章太八卦了, 想一想還是刪掉好了, 我們就市場與技術做專業討論, 先說結論: All in TQQQ 就對了 AI晶片分成兩種: edge AI 與 server AI, 寒武紀是edge AI, 壁仞科技是server AI, 目前新聞與股市天天在吵的都是server AI, 而中國真正有戰鬥力能跟NVDA AMD 對打的 server AI 只有兩家: 壁仞科技與摩爾線程, 壁仞科技倒了表示全中國server AI 市場只能買NVDA AMD, 至於推文提到的華為 AI 晶片, 那是達文西+泰山 堆出來的東西, 是個十年前的設計, 跟檯面上的AI 晶片大廠只會被越拉越遠, All in 美股七巨頭 然後我們把眼光放遠一點, 就像我之前說的, 這波AI 產業革命如果成真的話, 會像是之前的智慧手機與網路革命一樣, 從頭到尾可以整整吃十年以上, 在一開始的產業發展是放在硬體與Infrastructure 的開發, 比方說199x-2000年的CSCO, 以及智慧手機剛開始時的CPU 設計: QCOM, AAPL, ARM 以現在的情況來推算就是 NVDA AMD, 但是之後真正賺大錢的是應用平台的蘋果稅, 谷歌稅, youtube, amazon, facebook 等, 所以之後AI 產業真正會賺大錢的是在應用平台上面, 只是現在還看不到也看不清 好, 回到重點, AI server 的硬體, 尤其是GPU/TPU/ASIC, 我個人預估還有三到五年的榮景, 等到算力過剩 或是 大部分應用模型都訓練的差不多了, 接下來對大模型訓練的需求會減少, 這是趨勢, 所有科技的趨勢都是這樣發展, 接下來就是edge AI 的天下, 最終的應用平台都是要跑在客戶端, 比方說手機或筆電等, 尤其是inference 推理的應用一定都在 edge device上跑, 所以我個人預估一兩年內 edge AI 的需求會暴增, 三五年後 edge AI 會超過 server AI, Then, who is the edge AI player: 台灣: 聯發科 中國: 寒武紀, 華為 NPU 美國: GOOG, ARM (Mali), NVDA (maybe), AMD (maybe), AAPL (NPU), QCOM 還有一些新創公司在做 edge AI 晶片, 目前 edge AI 做得最好的是GOOG 的tensor, 能夠配合安卓在手機上面跑AI 推論, Pixel 手機上面也有一些 edge AI 晶片的應用, 包含照相美顏 與 即時修圖等功能, 結論還是All in 七巨頭, TQQQ 再來說CUDA的事情, 有OpenCL 跟CUDA 對打, 這是一個完全open source 的東西, CUDA 與OpenCL 就像是當年DirectX 與 OpenGL, 所有其他GPU公司要繞開CUDA, 只能從OpenCL 或是其他open source framework 下手, 至於推文說的Pytorch 與 TensorFlow 等 framework, 又是不同的東西, Pytorch TensorFlow 都是架構在CUDA/OpenCL 上面, 他們不是平行同等的東西, 所以才有所謂的GPU CUDA 加速 Pytorch TensorFlow, 一樣的道理, 你拿DirectX 與 OpenGL 來對比就知道我的意思, 現在OpenCL 還是比不上CUDA, 但是基於open source 與各大軟硬體公司合作, 相信幾年後一定會追上的, 就像當年OpenGL 也是多花了幾年的時間才追上 DirectX ※ 引述《Arim (億載金城武)》之銘言: : ※ 引述《Su22 (裝配匠)》之銘言: : : 原文標題:中國AI晶片業陷困境 兩大關鍵廠商消沉 : : ※請勿刪減原文標題 : : 原文連結:https://reurl.cc/WRAEMZ : : ※網址超過一行過長請用縮網址工具 : : 發布時間:2024/01/27 08:22 : : ※請以原文網頁/報紙之發布時間為準 : : 記者署名:吳孟峰 : : ※原文無記載者得留空 : : 原文內容: : : 曾經充滿希望的中國人工智慧(AI)產業正面臨艱困時期。壁仞科技和寒武紀這兩個新創 : : 產業巨頭都在苦苦掙扎。壁仞執行長兼聯合創始人徐凌傑最近辭職,引發人們對公司未來 : : 的擔憂;而寒武紀持續7年來虧損,不得不裁員。 : : 壁仞科技被美國政府列入 : : 這兩家公司並不是中國唯一的AI GPU開發商,但他們的掙扎反映整個中國AI硬體的困境。 : : 這些公司是否能夠適應、保持財務穩健,並跟上快速變化的市場趨勢,目前還有待觀察。 : : 心得/評論: : : 之前壁仞的GPU產品線總經理焦國方也離職了 : : 現在另一個高層也閃人 : : 寒武紀(SHA: 688256)則是連續虧損中,股價也跌了不少 : : 有投資中港股市AI晶片概念股的網友要注意相關風險 : : ※必需填寫滿30正體中文字,無意義者板規處分 : AI GPU 這塊未來十年內肯定還是 Nvidia 獨大,就跟 台 gg 一樣,整個生態早就建立起來了,要幹翻他光有錢是不夠的 : 皮衣刀客在十幾年前就佈局 cuda,只要有用 Nvidia gpu 做加速的軟體通通都要綁 cuda,目前開源做深度學習跟推論的,也都是綁 cuda , 然後 cuda 並不是開源的,所以如果不是 Nvidia 的晶片,根本不能用 cuda : 所以你看 meta 買 nv 的卡,openai 也買 nv 的卡,AMD 雖然也有自己的運算軟體,但生態系沒建立起來,在 AI 這塊終究看不到 nv 的車尾燈,你有看過有哪家大廠買 AMD 的卡做訓練嗎? : 所以搞 gpu 晶片這塊就跟牙膏在 gg 面前說要做先進半導體製程一樣,只是純燒錢而已,什麼都不會有的 : ----- : Sent from JPTT on my Xiaomi M2004J19C. -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1706498626.A.0C3.html ※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 11:26:09

01/29 11:26, 3月前 , 1F
大大 前一篇也很好啊 不需要刪吧 讓我們業外聞香
01/29 11:26, 1F

01/29 11:28, 3月前 , 2F
前一篇提的,這一篇都有啊,刪掉保險一點~推
01/29 11:28, 2F

01/29 11:30, 3月前 , 3F
七巨頭..是誰的XD
01/29 11:30, 3F

01/29 11:30, 3月前 , 4F
中國燧原科技 聽說不錯
01/29 11:30, 4F

01/29 11:31, 3月前 , 5F
edge ai有個問題 目前業界還沒找到殺手級應用 需求
01/29 11:31, 5F

01/29 11:31, 3月前 , 6F
不強的話 很難帶動需求跟價格
01/29 11:31, 6F

01/29 11:32, 3月前 , 7F
all in TQQQ
01/29 11:32, 7F

01/29 11:33, 3月前 , 8F
淺顯易懂的優質文
01/29 11:33, 8F

01/29 11:33, 3月前 , 9F
對岸記得還有一個地平線阿
01/29 11:33, 9F

01/29 11:36, 3月前 , 10F
發哥太貴了 有其他間嗎
01/29 11:36, 10F
台灣有在做GPU的公司 我只知道矽統, 當年矽統 的GPU 差點把nvidia ati(amd) 打趴, 不過那是25年前的故事了, 晶心做risc-v 偏向cpu, 不知道有沒有AI/GPU 的設計, 我也不知道台灣IP公司有沒有AI/GPU 的設計, 像是智原,創意, 所以我無法回答你, ※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 11:45:20

01/29 11:42, 3月前 , 11F
請問直接買00757也可以嗎?
01/29 11:42, 11F

01/29 11:47, 3月前 , 12F
西台灣做推論的只要沒辦法下GG,就沒希望了,反倒是
01/29 11:47, 12F

01/29 11:47, 3月前 , 13F
做訓練的,有足夠電力還可以大力出奇蹟
01/29 11:47, 13F

01/29 11:49, 3月前 , 14F
結論 可以歐印台GG了嗎?製成全都繞不開阿!
01/29 11:49, 14F
對, 歐印GG 也可以, 跟歐印TQQQ 一樣, 你最後還是要加入他的

01/29 11:50, 3月前 , 15F
有料,推
01/29 11:50, 15F

01/29 11:50, 3月前 , 16F
edge ai 會不會太浪費資源?把運算丟到server算好
01/29 11:50, 16F

01/29 11:50, 3月前 , 17F
再傳回來會不會比較有效率?
01/29 11:50, 17F
不, 丟server 才是浪費資源, computer science 吵"中心運算"與"平行運算" 已經吵了百年了, 最終都是平行運算勝利, 把所有計算放在 server 才是最耗資源 最耗水電的, 只有把運算分散到終端用戶, 才是最終最好的解法 比方說, 你買10000支手機 可以有一台 AI server 的算力, 也就是一台AI server 可以支援 10000 個用戶的運算需求, 但是這樣一台AI server 的造價與耗電量是 10000支手機的數百甚至數萬倍 ※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 11:57:53

01/29 11:53, 3月前 , 18F
一定需要edge的,很難全不要
01/29 11:53, 18F

01/29 11:54, 3月前 , 19F
tqqq有垃圾車
01/29 11:54, 19F

01/29 11:55, 3月前 , 20F
沒錯 QQQ買滿
01/29 11:55, 20F

01/29 11:55, 3月前 , 21F
推 歐印10年財富自由
01/29 11:55, 21F

01/29 11:57, 3月前 , 22F
反了吧 推論對算力需求低 有沒有GG影響低
01/29 11:57, 22F

01/29 11:57, 3月前 , 23F
照這篇買股 allin谷歌?
01/29 11:57, 23F

01/29 11:57, 3月前 , 24F
tqqq有垃圾車
01/29 11:57, 24F
FNGG 等七巨頭ETF 也都有垃圾車呀! 沒辦法呀! 比持有率的話, TQQQ/QQQ 持有垃圾車的比例還比較低

01/29 12:00, 3月前 , 25F
垃圾車是誰
01/29 12:00, 25F

01/29 12:01, 3月前 , 26F
edge 功耗更重要啊 不用GG先進製程手機電池哪夠用
01/29 12:01, 26F
對, edge 最在乎功耗 ※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 12:04:07

01/29 12:03, 3月前 , 27F
Edge絕對會是主流 更何況區塊鏈那套也可以拿來用在
01/29 12:03, 27F

01/29 12:03, 3月前 , 28F
末端算力上
01/29 12:03, 28F

01/29 12:04, 3月前 , 29F
目前大部份模型仍未到剪枝階段,推論仍需要大量算力
01/29 12:04, 29F

01/29 12:06, 3月前 , 30F
所以西台灣做推論的,沒有一家能投資
01/29 12:06, 30F

01/29 12:07, 3月前 , 31F
好 ALL IN!
01/29 12:07, 31F

01/29 12:08, 3月前 , 32F
Linux追得上Windows? Firefox追得上chrome? 聯電追
01/29 12:08, 32F

01/29 12:08, 3月前 , 33F
得上台積電?
01/29 12:08, 33F
OpenGL 後來真的追上DirectX, 甚至現在的3A 大作支援OpenGL 更多, 理論上, open source 與 跨平台cross-platform 最終都會勝過封閉系統, 唯一的例外就是賣水果的那家, 所以信仰最重要
還有 132 則推文
還有 14 段內文
01/29 16:19, 3月前 , 166F
有機會超過CUDA,現在已經幾年了。
01/29 16:19, 166F

01/29 16:20, 3月前 , 167F
10多年過去了還沒超過,核心還是在開發的編譯優化上
01/29 16:20, 167F

01/29 16:20, 3月前 , 168F
CUDA/OpenCL都非常依賴數據從CPU<->GPU間的數據搬移
01/29 16:20, 168F

01/29 16:21, 3月前 , 169F
好的Compiler會自動搞定一大堆異質架構的存取優化
01/29 16:21, 169F

01/29 16:21, 3月前 , 170F
不然早期的CUDA你開發還要去記記憶體架構跟cycle
01/29 16:21, 170F

01/29 16:22, 3月前 , 171F
時間差,人工想辦法去interlace 讀取加大平行度
01/29 16:22, 171F

01/29 16:22, 3月前 , 172F
真的麻煩。最近幾年沒跟進,不確定現在怎樣了
01/29 16:22, 172F

01/29 16:25, 3月前 , 173F
理論上只要克服這點,OpenCL應該就可以追上CUDA
01/29 16:25, 173F

01/29 16:25, 3月前 , 174F
但是這也是比較難的點,Vendor自己開發的跟開源的
01/29 16:25, 174F

01/29 16:26, 3月前 , 175F
肯定在相容性跟優化上還是有一些差異。
01/29 16:26, 175F

01/29 16:41, 3月前 , 176F
AMD跟客戶大廠應該會認真做縮小跟CUDA的差距
01/29 16:41, 176F

01/29 16:42, 3月前 , 177F
但要說贏過CUDA就很難 至少短時間不可能
01/29 16:42, 177F

01/29 17:46, 3月前 , 178F
這樣看起來聯發科的風險
01/29 17:46, 178F

01/29 17:46, 3月前 , 179F
會是中國被禁運
01/29 17:46, 179F

01/29 17:50, 3月前 , 180F
上面說大模型越來越多,那有沒有小模型也越來越多,
01/29 17:50, 180F

01/29 17:50, 3月前 , 181F
而且現在好幾篇論文都在寫小模型在特定環境甚至比大
01/29 17:50, 181F

01/29 17:50, 3月前 , 182F
模型的表現好。況且現在注重的是“有效的”參數而不
01/29 17:50, 182F

01/29 17:50, 3月前 , 183F
是越多越好
01/29 17:50, 183F

01/29 17:55, 3月前 , 184F
這樣手機pc nb不就要噴爛了
01/29 17:55, 184F
除非你要超前部署, 不然還早, edge AI 快速成長也要一兩年後, 超過 server AI 大概要三五年後, 也就是三五年後有大量的AI應用 與平台之後, 才會開始噴 pc nb 手機 ※ 編輯: waitrop (76.103.225.6 美國), 01/29/2024 18:00:02

01/29 20:48, 3月前 , 185F
請問買SOXL可以嗎? 想要分一點倒TQQQ
01/29 20:48, 185F

01/29 21:08, 3月前 , 186F
opencl要追上cuda還有很長的路要走 重點是這些優化
01/29 21:08, 186F

01/29 21:08, 3月前 , 187F
最佳化誰來做 這些都是很專精且硬體相關性很強的 以
01/29 21:08, 187F

01/29 21:08, 3月前 , 188F
AI大模型的訓練量差個5%效率就是很多錢
01/29 21:08, 188F

01/29 21:11, 3月前 , 189F
這也是nvidia贏amd 的原因 硬體就算不輸 軟體的差距
01/29 21:11, 189F

01/29 21:11, 3月前 , 190F
不是一時半刻可追
01/29 21:11, 190F

01/29 21:18, 3月前 , 191F
大公司如微軟能自己拉個軟體team來優化amd的硬體
01/29 21:18, 191F

01/29 21:18, 3月前 , 192F
找到不只會cuda還能精通其他平台的強者 中小公司只
01/29 21:18, 192F

01/29 21:18, 3月前 , 193F
能乖乖用nvidia
01/29 21:18, 193F

01/29 21:48, 3月前 , 194F
蛤 為啥不是SOXL?
01/29 21:48, 194F

01/29 22:38, 3月前 , 195F
天下程式一大抄 opencl要贏Nvdia要多生出幾本教科書
01/29 22:38, 195F

01/29 22:38, 3月前 , 196F
讓大家抄
01/29 22:38, 196F

01/30 03:46, 3月前 , 197F
我來寫一本也開課到YouTube 好了
01/30 03:46, 197F

01/30 09:38, 3月前 , 198F
大家都只想到效能 沒人想到成本的問題 而且llm要切
01/30 09:38, 198F

01/30 09:39, 3月前 , 199F
分也不是辦不到 如果能切分還能去互相驗證model有
01/30 09:39, 199F

01/30 09:39, 3月前 , 200F
沒有失真 大公司就不必耗這麼多電力算力成本在可能
01/30 09:39, 200F

01/30 09:39, 3月前 , 201F
沒什麼投資報酬率的結果上
01/30 09:39, 201F

01/30 09:49, 3月前 , 202F
但現況edge一定是validation 為主
01/30 09:49, 202F

01/30 12:30, 3月前 , 203F
巨頭不包含微軟嗎?
01/30 12:30, 203F
我說過很多次了, 我在討論的是硬體與IC 晶片的部分, 所以沒有談到微軟 微軟是目前AI 應用平台與模型的領先者, 第一名的地位, 但是我們並沒有討論應用平台與模型 ※ 編輯: waitrop (76.103.225.6 美國), 01/30/2024 15:13:56
文章代碼(AID): #1bjnf233 (Stock)
討論串 (同標題文章)
文章代碼(AID): #1bjnf233 (Stock)