Re: [討論] sora效率:800塊A100跑一天出一分鐘產品

看板HatePolitics作者 (廢柴聯盟盟主)時間2月前 (2024/03/11 14:26), 編輯推噓1(106)
留言7則, 3人參與, 2月前最新討論串3/3 (看更多)
※ 引述《yoyoruru (哇系笨阿佑)》之銘言: : 一張 A100,大概1萬鎂 : 算算就一個電影動畫師的平均月薪 : 買來玩個一年 : 「很貴嗎?」 我還覺得底層是跑 Unreal engine 跑出來的 應該有人在朝這方向做了 如果是產生的我只能說,失誤率太高沒有必要 看起來很炫但是不實用 看大家興奮成那樣我也是黑人問題,妥妥的炒股 比起來,Nvidia 前架構師離職這篇論文才更有意思 https://www.facebook.com/nanzong.chen/posts/ pfbid026y5WwQRz2tvCcAG5jTWiFAbcyqLv3CFU92vTBZHPrSZXhuWg3fmaXxiPGv6yyjjml (接成一行, 懶得縮了) 加州理工學院(Caltech)的布倫教授(Bren Professor) 「我們首次證明,LLaMA 7B可以在僅具有24GB記憶體的單一消費級GPU(RTX 4090)上 進行預訓練(不是微調!)。這意味著訓練期間用於儲存優化器狀態的記憶體減少 了82.5%以上。」 這個才是大新聞,降低大語言模型 training 的記憶體使用量 大家算大語言模型的成本大幅降低 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.228.0.12 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/HatePolitics/M.1710138390.A.183.html

03/11 14:35, 2月前 , 1F
現在限制運算力的應該不是記憶體太小
03/11 14:35, 1F

03/11 14:35, 2月前 , 2F
,而是GPU不夠快,雖然較低記憶體需求
03/11 14:35, 2F

03/11 14:35, 2月前 , 3F
還是有幫助
03/11 14:35, 3F

03/11 14:47, 2月前 , 4F
一般人是記憶體太小啊
03/11 14:47, 4F

03/11 14:47, 2月前 , 5F
除了GPU算力問題,還有HBM效能
03/11 14:47, 5F

03/11 14:48, 2月前 , 6F
但是還是看 model 長成什麼樣
03/11 14:48, 6F

03/11 16:00, 2月前 , 7F
LLaMA 7B效果很差,根本不實用
03/11 16:00, 7F
文章代碼(AID): #1bxgGM63 (HatePolitics)
討論串 (同標題文章)
文章代碼(AID): #1bxgGM63 (HatePolitics)