Re: [新聞] DeepSeek顛覆AI產業模式!曝中國2大發展方向 ASIC成關鍵

看板Stock作者 (Eye Taiwan)時間10月前 (2025/02/02 22:35), 10月前編輯推噓22(24250)
留言76則, 25人參與, 10月前最新討論串2/2 (看更多)
※ 引述《KIMBEOM (HYYY)》之銘言: : 原文標題:DeepSeek顛覆AI產業模式!曝中國2大發展方向 ASIC成關鍵 : 原文連結:https://reurl.cc/qn2x9n : 發布時間:2025/02/02 12:40 : 記者署名:壹蘋新聞網 / 呂承哲 : 原文內容: : 【記者呂承哲/台北報導】中國AI新創公司DeepSeek近期在科技界掀起熱議,根據調研機 : 構TrendForce集邦科技的最新研究,DeepSeek近期接連發表DeepSeek-V3、DeepSeek-R1等 : AI模型,將影響終端客戶對AI基礎設施的投資決策。未來,業者可能更注重軟體運算模型 : 的效率,以減少對GPU等昂貴硬體的依賴。同時,雲端服務供應商(CSP)可能擴大使用自 : 家ASIC(特殊應用積體電路)基礎設施,以降低建置成本。這使得2025年後,市場對GPU : AI晶片及相關半導體的需求可能產生變化。 : 心得/評論: : 看來ASIC就是未來趨勢 IC設計準備噴噴 : 明天加碼世芯 創意 M31 LLM經過這三年發展已展現其潛力,但也陷入(公開)知識枯竭造成的瓶頸 網路爬蟲能抓的都已訓練完 AI模型如還需增加功力,只能望向各家機構(公司)的商業祕密 比如DS團隊使用低階語言PTX來增加GPU計算效率 此部分的知識儲備,據說來自母公司幻化量方過往最佳化量化交易模型的經驗 拿 Python/C/組語/機器語言 來比喻就更明瞭 過往程式語言往高階發展,是因為有著訓練人才普及的需求 畢竟組語難學,機器語言就別提了 所以在一個python程式滿天飛的時代,能用C重寫效率優勢就驚人,更不用說使用組語 GPU這塊也是,現在很少有CUDA的使用者會去寫PTX 所以關於"PTX最佳化"公開的知識並不多 但很可能DS團隊已經成功將幻化量方PTX經驗轉換為大模型 然後用在設計下一代大模型的架構上 簡單說就是掌握獨家的低階語言知識,教給AI,然後再"手動迭代" 不斷產生更高效率的低階AI碼農 當然OpenAI內部也有可能擁有類似知識,但效率較低 所以基本可以推論,未來誰越能掌握壓榨硬體的知識,就能持續拉開效率差距 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.41.64.92 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738506945.A.C3E.html

02/02 22:39, 10月前 , 1F
可以避開使用CUDA,NV就不再獨大
02/02 22:39, 1F

02/02 22:44, 10月前 , 2F
快買a股
02/02 22:44, 2F

02/02 22:44, 10月前 , 3F
現今的 compiler 最佳化技術太強大,在很多系統上寫
02/02 22:44, 3F

02/02 22:44, 10月前 , 4F
C 語言執行效率未必會輸給寫組合語言
02/02 22:44, 4F
簡單程式可能效率相當,但稍微複雜點,人力就很難分析驗證整個流程 加上組語/機器語言可以控制更底層的元件,特定情況下會存在更高效率方法

02/02 22:44, 10月前 , 5F
02/02 22:44, 5F

02/02 22:45, 10月前 , 6F
PTX是CUDA到機械碼之間的中介碼 不可能繞開
02/02 22:45, 6F

02/02 22:47, 10月前 , 7F
真的快笑死 都是NV的東西 要怎麼避? PTT水準的是...
02/02 22:47, 7F

02/02 22:47, 10月前 , 8F
存疑,低階語言很有效率沒錯,但系統大到一定程度
02/02 22:47, 8F

02/02 22:47, 10月前 , 9F
後很難維護/除錯,你用機器語言寫的出windows 11?
02/02 22:47, 9F

02/02 22:47, 10月前 , 10F
我個人覺得不可能,ds若真的效率比其他model好,
02/02 22:47, 10F

02/02 22:47, 10月前 , 11F
應該是算法有進化,不會是用低階語言寫導致的
02/02 22:47, 11F
拿Windows來比太誇張,或許再過30年有機會吧 事實上現有LLM的架構很單純,一張圖就能表示清楚 只是運算的數量級巨大無比,所以特別適合追求極端的最佳化

02/02 22:49, 10月前 , 12F
架構才是重點
02/02 22:49, 12F

02/02 22:49, 10月前 , 13F
專業推
02/02 22:49, 13F
※ 編輯: dansy (114.41.64.92 臺灣), 02/02/2025 22:59:53

02/02 22:52, 10月前 , 14F
我記得是用ptx繞過nvlink的限制,但換不同型號就要
02/02 22:52, 14F

02/02 22:52, 10月前 , 15F
重寫
02/02 22:52, 15F

02/02 22:52, 10月前 , 16F
最佳化不是全部底層優化 是瓶頸用底層加速 會用pt
02/02 22:52, 16F

02/02 22:52, 10月前 , 17F
x 表示掌握底層 換別的硬體架構也只是需要時間而已
02/02 22:52, 17F

02/02 22:52, 10月前 , 18F
cuda ptx不是重點了 是他有離開nv生態圈的能力 另
02/02 22:52, 18F

02/02 22:52, 10月前 , 19F
外不要只關注DeepSeek 模型OpenAI 新模型出來了 用
02/02 22:52, 19F

02/02 22:52, 10月前 , 20F
戶使用成本也變低了 整個ai用戶成本降價時代來臨
02/02 22:52, 20F

02/02 22:53, 10月前 , 21F
不懂裝懂
02/02 22:53, 21F

02/02 22:53, 10月前 , 22F
並不是說DS已完全脫離CUDA 但有機會突破護城河
02/02 22:53, 22F

02/02 22:54, 10月前 , 23F
他開源給大家摸索, 未來會怎麼發展起來都不好說
02/02 22:54, 23F

02/02 22:55, 10月前 , 24F
等有辦法不用NV的產品 做出一樣的東西再說
02/02 22:55, 24F

02/02 22:57, 10月前 , 25F
(純討論程式語言)回樓上:其實在桌電、筆電這種或以
02/02 22:57, 25F

02/02 22:57, 10月前 , 26F
上複雜的環境,人們投入很多精力在改良 C/C++ compi
02/02 22:57, 26F

02/02 22:57, 10月前 , 27F
ler,所以用 C/C++ 就很夠了(Windows 11 是用 C++
02/02 22:57, 27F

02/02 22:57, 10月前 , 28F
寫的, Linux 是用 C 寫的) -- 最多就是在少數特定
02/02 22:57, 28F

02/02 22:57, 10月前 , 29F
地方夾進一段組合語言
02/02 22:57, 29F

02/02 22:58, 10月前 , 30F
使用中階GPU,就能產出高效
02/02 22:58, 30F

02/02 22:58, 10月前 , 31F
這點就是優勢
02/02 22:58, 31F

02/02 22:59, 10月前 , 32F
我知道你的意思 連AMD都沒辦法克服效能衰退問題
02/02 22:59, 32F

02/02 23:00, 10月前 , 33F
中國能? AMD還有微軟出錢出人
02/02 23:00, 33F

02/02 23:01, 10月前 , 34F
有人應該蠻誤解原 po 的意思 wwww
02/02 23:01, 34F

02/02 23:04, 10月前 , 35F
用NV低階程式語言做出 較不穩定的ANI要怎麼繞過NV?
02/02 23:04, 35F

02/02 23:04, 10月前 , 36F
你解釋看看 我哪裡誤解?
02/02 23:04, 36F

02/02 23:04, 10月前 , 37F
架構的極致優化和算力需求的精簡,就是Ai的精髓
02/02 23:04, 37F

02/02 23:04, 10月前 , 38F
DS做到了
02/02 23:04, 38F

02/02 23:06, 10月前 , 39F
讓業界廣泛使用
02/02 23:06, 39F

02/02 23:06, 10月前 , 40F
門外漢以為寫程式是電影敲鍵盤亂按喔
02/02 23:06, 40F

02/02 23:06, 10月前 , 41F
事實上也是爭相採用
02/02 23:06, 41F

02/02 23:07, 10月前 , 42F
AMD 在做的事和 DS 在做的事情又不一樣 =.=
02/02 23:07, 42F

02/02 23:07, 10月前 , 43F
台灣軟體界的看法,褒貶不一,但台灣自己搞不出來
02/02 23:07, 43F

02/02 23:09, 10月前 , 44F
我只是舉例AMD+微軟都無法取代NV的意思
02/02 23:09, 44F

02/02 23:10, 10月前 , 45F
除非 AMD+微軟做出自己的平台
02/02 23:10, 45F

02/02 23:11, 10月前 , 46F
openAi準確率也不是100%,DS準確率較低,只要繼續優
02/02 23:11, 46F

02/02 23:11, 10月前 , 47F
02/02 23:11, 47F

02/02 23:12, 10月前 , 48F
微軟在做的事和 DS 在做的事又不一樣 =.=
02/02 23:12, 48F

02/02 23:12, 10月前 , 49F
拉高準確率,小而美就是市場主流
02/02 23:12, 49F

02/02 23:13, 10月前 , 50F
微軟自己沒什麼在搞 LLM
02/02 23:13, 50F

02/02 23:15, 10月前 , 51F
你自己去找資料吧
02/02 23:15, 51F

02/02 23:16, 10月前 , 52F
微軟主要合作的 LLM 公司都是用 NV 的硬體架構,含
02/02 23:16, 52F

02/02 23:16, 10月前 , 53F
NVLink 和 NV 認證的 HBM
02/02 23:16, 53F

02/02 23:16, 10月前 , 54F
微軟和 NV 根本不是競爭對手的關係
02/02 23:16, 54F

02/02 23:21, 10月前 , 55F
樓上正解 微軟大概只能算算力掮客
02/02 23:21, 55F

02/02 23:22, 10月前 , 56F
PTX優化是其中一項 但DS還做了其他事情 兩件以上
02/02 23:22, 56F

02/02 23:23, 10月前 , 57F
一樓完全誤解 PTX只是自己寫cuda
02/02 23:23, 57F

02/02 23:48, 10月前 , 58F
不是都是NV架構嗎 要拿什麼繞 你當撐竿跳喔
02/02 23:48, 58F

02/02 23:53, 10月前 , 59F
傻眼..PTX是NV跨架構的膠水語言哪有啥繞過NV==
02/02 23:53, 59F

02/03 00:31, 10月前 , 60F
難怪open AI會說自己站錯邊,開源真的很猛
02/03 00:31, 60F

02/03 01:11, 10月前 , 61F
不是繞過,而是研究NV架構比其他家透徹
02/03 01:11, 61F

02/03 01:12, 10月前 , 62F
從開發框架到主要架構都有一定掌握
02/03 01:12, 62F

02/03 03:04, 10月前 , 63F
現在怕的是萬一用低階GPU就可以達到OPEN AI
02/03 03:04, 63F

02/03 03:04, 10月前 , 64F
高階顯卡會有賣不掉的疑慮
02/03 03:04, 64F

02/03 06:06, 10月前 , 65F
疊帶 習大大你字打錯了
02/03 06:06, 65F

02/03 07:43, 10月前 , 66F
迭代吧? 樓上是習大大的秘書?
02/03 07:43, 66F

02/03 08:27, 10月前 , 67F
這個就跟某些廠商拼時間魔改java把某些拿掉執行速
02/03 08:27, 67F

02/03 08:27, 10月前 , 68F
度一樣 但後面新的語言足以做到ex: Rust 公司團隊
02/03 08:27, 68F

02/03 08:27, 10月前 , 69F
就重新改寫切過去了 不可能再折磨自己用魔改版本維
02/03 08:27, 69F

02/03 08:27, 10月前 , 70F
護系統
02/03 08:27, 70F

02/03 08:29, 10月前 , 71F
用PTX寫這些東西 不要CUDA自己干涉 由自己決定所有
02/03 08:29, 71F

02/03 08:29, 10月前 , 72F
事 這個要考慮團隊經營跟當時時空的環境有什麼條件
02/03 08:29, 72F

02/03 08:31, 10月前 , 73F
你往更低階的寫所有條件會更難維護或非常考驗的開
02/03 08:31, 73F

02/03 08:31, 10月前 , 74F
發團隊的經驗 但真的會變得更窄
02/03 08:31, 74F

02/03 08:31, 10月前 , 75F
團隊成員拿翹你就知道問題會變成什麼樣
02/03 08:31, 75F

02/03 08:33, 10月前 , 76F
我相信r1能如此成 PTX不會是最大功勞
02/03 08:33, 76F
文章代碼(AID): #1dduB1m- (Stock)
文章代碼(AID): #1dduB1m- (Stock)