Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI風險令人擔憂

看板Stock作者時間4天前 (2025/12/14 00:18), 編輯推噓3(3030)
留言33則, 10人參與, 4天前最新討論串14/23 (看更多)
: 沒關係,偷偷告訴你一個Insight : 今年NeurIPS 2025有一篇超重量級的論文 : Introducing Nested Learning : 這篇文論的重要程度不亞於Attention is all you need : 甚至可以說有過之而無不及 : Transfomer架構只是發明了蒸氣機 : Nested Learning這篇論文,簡直就是熱力學定律的等級了 : 基本上等於宣告Transformer架構過時了(因為是一種扁平和單一頻率的特例) : 未來三到五年,全面轉向Nested Learning的時代 : 以下文字是我先寫一版,再請Gemini潤稿的洞察 : --------這是AI潤稿的分隔線-------- : 當前 AI 發展正受制於一道物理鐵律:記憶體牆(Memory Wall)。傳統 Transformer 架 : 構依賴 KV Cache 維持上下文,這本質上是一種「以頻寬換取長度」的低效策略。隨 : 著上下文長度 T 的增加,Attention 機制的計算複雜度呈 O(T^2) 增長,而推論時 : 的記憶體搬運量呈 O(T) 線性增長。在 HBM 頻寬成長遠落後於 GPU 算力的現狀下,這 : 種依賴儲存大量未經壓縮原始狀態的架構,註定會從 Compute-Bound 跌落至 IO-Bound : 的深淵。 : Nested Learning 的出現,透過對記憶與推理本質的重新理解,為此困境帶來了典範轉移 : 級別的解答。 : 其核心突破在於「推論即訓練」的數學創新——Nested Learning 揭示了 : Attention 機制在本質上等價於單步的梯度下降更新。基於此,HOPE 架構不再被動地檢 : 索歷史,而是主動將資訊即時壓縮為模型權重。這將原本受限於頻寬的檢索問題,轉化為 : 僅需固定算力的狀態更新問題,從根本上粉碎了記憶體牆。 : 在應用層面,這種架構徹底重塑了 AI 的個性化能力。HOPE 的動態記憶機制(Fast : Weights) 不再依賴傳統模型那種外掛式的提示詞(Prompting)來「模擬」短期記憶, : 而是透過梯度更新,將使用者的偏好與習慣即時「內化」為模型參數的一部分。這不 : 僅在工程上根除了重複處理提示詞的算力浪費,更在體驗上創造出具備「演化能力」的專 : 屬模型,讓 AI 隨著每一次互動變得更懂你。 : 這一變革預示著當前 HBM 需求高速增長的趨勢將顯著放緩,技術改革的方向將轉向針對 : 不同更新層級的硬體特化: : 邊緣裝置 (Edge): 承載高頻更新的快層,將不再單純追求頻寬,而是轉向追求大容量 : SRAM 與極致的能效比,以支撐毫秒級的狀態寫入與計算。 : 雲端中心 (Cloud): 承載低頻更新的慢層,為了處理更複雜的邏輯推理與龐大的智能結 : 構,將演化出針對非歐幾何的特化運算單元,以在雙曲空間中實現更高維度的高效推理。 : ----------這是AI潤稿的分隔線----------- : 你各位要小心HBM市場在2026年末的崩潰反轉 : 短期因為各種高頻信號,還是會持續推高HBM的市場價格 : 然後記憶體因為這些需求訊號,會瘋狂擴廠 : 等到「基於超大KV Cache的Transfomer架構」路徑依賴崩潰 : 新架構全面轉向HOPE的時侯 : 嘻嘻 刺激囉~~~ 小弟不才,關於技術的部份看不懂 但還是想請教 1.現有transfomer架構因為需要死背硬記,所以需要超大規模記憶體 來對應長文本、圖像,甚至影片,到長影片所需的記憶體規模已經 不具備實際可行性或是沒有經濟價值 這部分Nested Learning具備絕對優勢,面對長文本、圖像,甚至長影片 對記憶體的需求成長可控 2.Nested Learning具備持續學習的能力,這點是transformer不具備的 基於以上兩點,即使現在還有很多缺點,未來也絕對有Nested Learning 的一席之地(因為transformer在這些地方的劣勢是結構性的,無法改變) 請問我這理解有沒有哪邊有問題? 如果未來Nested Learning大規模佈署,在產業面上的影響 1.SRAM的需求會大幅增加,Nested Learning需要的不是大量的HBM來記憶 而是需要能快速響應的SRAM來對應CMS 2.算力的需求暴增,相比現在的transformer是卡在記憶體數量與頻寬 Nested Learning因為需要Backward Pass,需要的是數倍的算力 3.由上面兩點推測,封裝需求也會改變,HBM+GPU的封裝需求成長減緩 如CoWoS,相對的interposer、載板也不需要那麼大,所以這些產業 成長會放緩 我腦容量不夠,這是我想像力的極限了 什麼雙曲空間已經超出我認知範圍 不過還是想問一下我這樣理解有沒有什麼問題 感謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.23.5 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765642720.A.94D.html

12/14 00:22, 4天前 , 1F
我是覺得….這都不知道幾年後才會發生,多關注就好
12/14 00:22, 1F

12/14 00:22, 4天前 , 2F
,等真的發酵要上車都還來得及
12/14 00:22, 2F

12/14 00:23, 4天前 , 3F
+1。就算五年前就知道去美元化是趨勢,但太早買黃金
12/14 00:23, 3F

12/14 00:23, 4天前 , 4F
會被套很久。
12/14 00:23, 4F

12/14 00:24, 4天前 , 5F
像輝達從23年q2開始爆發(2x%)那天到現在最高漲了4
12/14 00:24, 5F

12/14 00:24, 4天前 , 6F
倍多了
12/14 00:24, 6F

12/14 00:25, 4天前 , 7F
在這個弄出來ASIC之前 力大磚飛比較快可以上線
12/14 00:25, 7F

12/14 00:44, 4天前 , 8F
想太多了輝達 DLSS 2/3/3.5 所用的CNN架構
12/14 00:44, 8F

12/14 00:45, 4天前 , 9F
從RTX 20/30/40都在用CNN, 50才剛轉向 Transformer
12/14 00:45, 9F

12/14 00:46, 4天前 , 10F
NL是抽象架構 Transformer是實例 不同層級不可比
12/14 00:46, 10F

12/14 00:46, 4天前 , 11F
google的tpu多久才能上線 Nested Learning ?
12/14 00:46, 11F

12/14 00:47, 4天前 , 12F
論文到實際運用差距還遠的
12/14 00:47, 12F

12/14 00:48, 4天前 , 13F
要投就是Google 但其他家也有可能先實作出來
12/14 00:48, 13F

12/14 00:51, 4天前 , 14F
可以買QQQ就好惹吧0.0///這些中文我完全看不懂...
12/14 00:51, 14F

12/14 00:53, 4天前 , 15F
字節早就用 transformer 做出 ai agent 了
12/14 00:53, 15F

12/14 00:53, 4天前 , 16F
板上幾個大神講的像是Google基本上領先1年半
12/14 00:53, 16F

12/14 00:53, 4天前 , 17F
不如投資 美股 KHH 支持字節翻桌全世界
12/14 00:53, 17F

12/14 00:56, 4天前 , 18F
goog的gemini在於其成本優勢,沒有Tpu自己開發
12/14 00:56, 18F

12/14 00:57, 4天前 , 19F
可能陷入跟甲骨文一樣的境地
12/14 00:57, 19F

12/14 01:00, 4天前 , 20F
SRAM相關影響的公司有那些
12/14 01:00, 20F

12/14 01:09, 4天前 , 21F
重點不在預測,而是觀察,提前理解只是幫助你在趨
12/14 01:09, 21F

12/14 01:09, 4天前 , 22F
勢來的時候能即時看見並且知道要買什麼。
12/14 01:09, 22F

12/14 01:09, 4天前 , 23F
輝達也用Tile近似TPU 這一年半的領先可能不夠
12/14 01:09, 23F

12/14 01:21, 4天前 , 24F
你真的要先壓那就先壓共同點,像是sram需求上升,
12/14 01:21, 24F

12/14 01:21, 4天前 , 25F
那SoIC、TSV、Hybrid bonding是不是有機會?但我真
12/14 01:21, 25F

12/14 01:21, 4天前 , 26F
的不建議去壓3~5年的大趨勢改變,真的發酵的時候在
12/14 01:21, 26F

12/14 01:21, 4天前 , 27F
上車絕對來得及,提前上車你不確定要蹲多久,甚至
12/14 01:21, 27F

12/14 01:21, 4天前 , 28F
最後預測錯誤
12/14 01:21, 28F

12/14 01:24, 4天前 , 29F
買0052大概沒問題 五年報酬率比QQQ強
12/14 01:24, 29F

12/14 07:34, 4天前 , 30F
以前我回測00713 5年報酬跟0050相當,就買了00713
12/14 07:34, 30F

12/14 07:35, 4天前 , 31F
過去一年只有慘QQ
12/14 07:35, 31F

12/14 10:54, 4天前 , 32F
Google現在用TPU就屌打OpenAl了
12/14 10:54, 32F

12/14 10:55, 4天前 , 33F
新架構TPU出來前都會持續屌打
12/14 10:55, 33F
文章代碼(AID): #1fFP7WbD (Stock)
討論串 (同標題文章)
完整討論串 (本文為第 14 之 23 篇):
文章代碼(AID): #1fFP7WbD (Stock)