看板
[ Stock ]
討論串[新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI風險令人擔憂
共 23 篇文章
內容預覽:
對!華西街怕了 就是這一點. -. AI建設規模都是幾百億幾千億鎂的在花. meta.甲骨文.aws等都跟銀行借錢搞數據中心. 在這高利率時代借錢出去超爽的 而且這些都是科技巨頭. 養老基金不收垃圾債 這些大公司債可是願意收的. 轉手打包成AA債賣給養老基金 困爸數錢爽. ====以上是過去兩年發生
(還有403個字)
內容預覽:
就整篇不知道在講什麼。刪. https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/https://reurl.cc/8bDgag. google已經整理好重點
(還有613個字)
內容預覽:
Nested Learning 的工程實例是 HOPE ,HOPE有分快系統跟慢系統兩部分. 快系統應用Titan model. 慢系統應用了CMS(連續體記憶系統). 現成硬體來說,最適合跑整個HOPE的是GPU,雖然也很勉強,NL流行後,. GPU會針對這個改版. 不過單獨CMS的部分,跟現有的
(還有291個字)
內容預覽:
從AI晶片來說 基本上算力效率跟記憶體就是大趨勢 存算一體就是一個主軸. 所以可以買HBM/算力小隊/台G 我基本上就是這樣幹. 這篇就類似之前的Mamba這類型paper 就是希望能取代Transformer 但當訓練到. 大資料量時 這類型模型就是沒辦法很好的scalable 當大量資料套上時
(還有2488個字)
內容預覽:
小弟不才,關於技術的部份看不懂. 但還是想請教. 1.現有transfomer架構因為需要死背硬記,所以需要超大規模記憶體. 來對應長文本、圖像,甚至影片,到長影片所需的記憶體規模已經. 不具備實際可行性或是沒有經濟價值. 這部分Nested Learning具備絕對優勢,面對長文本、圖像,甚至長影
(還有448個字)