[閒聊] 組裝Chat-LLaMA主機的規格

看板PC_Shopping作者 (3d)時間1年前 (2023/03/17 13:35), 1年前編輯推噓3(307)
留言10則, 7人參與, 1年前最新討論串1/1
自從Meta 的 LLaMA被流出版後,進展真的飛速。 現在可以自搞Alpaca了。原Stanford的Alpaca因為版權問題,不能外放。現在應該會有一堆流出版。 https://replicate.com/blog/replicate-alpaca 已經有人開發出Mac的Chat-LLaMA版了。 https://github.com/antimatter15/alpaca.cpp Windows版,應該近日可期。 如果在自己的機器玩Chat-LLaMA,大概需要什麼樣的規格?(Training當然是另外一種規格) 以下是講4 bit quantized的需求,很粗略的估算 7B模型需要約8GB(4GB+4GB) 13B模型約16GB 30B模型約40GB 64B模型約85GB 現在聽說13B的性能與表現最能接受,但看發展速度,30B應該會是PC的應用主流。 所以現在組電腦,ddr5的32GB x 2條,應該是基礎,預算是先抓容量再抓速度。 DDR5在這裡的應用對DDR4會有優勢,目前價差應該是可接受,但預算太緊那還是選DDR4因為容量優先。 CPU就越多核越好,框框越多越好,小核在這超好用。 顯卡GPU因為記憶體少,所以不如CPU好用,然後買CPU一定要有內顯的,做保險。如果內顯加速版出來了,也許就不需要多核CPU了,目前難判斷就是。 所以喜歡買AMD的粉絲們,請多多考慮AM5,然後x3d應該是沒有優勢。 Chat-LLaMA實在發展太快,半年內應該會有各種應用出現,就像Stable Diffusion促進顯卡的需求。 下半年,多種應用出現(Ai助理),可能又會有一波PC升級潮,這次記憶體需求應該會很旺盛。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.224.251.234 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1679031315.A.4D2.html ※ 編輯: oopFoo (36.224.251.234 臺灣), 03/17/2023 13:38:02

03/17 15:39, 1年前 , 1F
看來這局勢將對等等黨極度不利呢...
03/17 15:39, 1F

03/17 18:10, 1年前 , 2F
好險已經買了,除了lora,還可以玩別的了
03/17 18:10, 2F

03/17 18:26, 1年前 , 3F
還好已經裝滿128G了
03/17 18:26, 3F

03/17 19:59, 1年前 , 4F
想太多了 不會每個人都想自己產色圖來給自己SAN值檢驗
03/17 19:59, 4F

03/17 19:59, 1年前 , 5F
正常顯卡的大宗用戶還是遊戲玩家
03/17 19:59, 5F

03/17 20:26, 1年前 , 6F
美光庫存200天 應該夠賣吧 ㄏ
03/17 20:26, 6F

03/18 09:56, 1年前 , 7F
記憶需求x2,庫存變100天,機器增加,供不應求。
03/18 09:56, 7F

03/18 09:58, 1年前 , 8F
這ai助手功能使需求大爆發是很有可能的。現在PC的記憶體都
03/18 09:58, 8F

03/18 09:58, 1年前 , 9F
配太少了。
03/18 09:58, 9F

03/19 22:42, 1年前 , 10F
如果要高記憶體要找HEDT,但是你要CPU算,可能要高L1
03/19 22:42, 10F
文章代碼(AID): #1a4_mJJI (PC_Shopping)