作者查詢 / YCL13
作者 YCL13 的總覽 (PTT發文,留言,暱稱)
發文數量: 204
收到的『推』: 1704 (42.4%)
收到的『→』: 2158 (53.6%)
收到的『噓』: 161 (4.0%)
留言數量: 42837
送出的『推』: 22332 (52.1%)
送出的『→』: 16922 (39.5%)
送出的『噓』: 3583 (8.4%)
使用過的暱稱: 4
YCL13 在 PTT 最新的發文, 共 204 篇
YCL13 在 PTT 最新的留言, 共 42837 則
159F推: DC大大小小的到底有幾種呀?59.115.148.103 03/07 20:48
43F推: 遙想去年這個時候,64GX4一套比一張5070ti還便宜呢03/07 18:51
7F推: Qwen3.5應該是能處理圖片最小的模型了,不過我這幾天測了一03/06 06:58
8F→: 些覺得門檻是9B Q8,再小的有時會漏看或看錯,用來跑agent03/06 06:58
9F→: 會有些不放心,或許該說再小的要用在更簡單明確的目的03/06 06:59
18F推: 27B的嚴謹度真出乎我意料的好,只是在我電腦真的慢,大概只03/06 22:26
19F→: 有9B的十分之一,所以我如果跑Agent是傾向用稍差的35B-A3B03/06 22:26
20F→: ,因為快很多,其實有在想用122B,因為速度差不多,只是備03/06 22:26
21F→: 用電腦就跑不動了03/06 22:26
23F推: 我是用5080+32X4,因4條RAM所以速度僅4800有時440003/07 09:30
24F→: 想了想我比較基準不太公允,若35B是用Q4的話速度會超過2倍03/07 09:32
25F→: ,但為了品質所以常會用較高的,沒說清楚這比較會怪怪的03/07 09:32
26F→: 另外,如果我把2條RAM拔掉讓RAM速度恢復,那27B的速度可以03/07 09:35
27F→: 提升約15%,只是忍不住想跑120B等級的模型,所以就暫時維持03/07 09:35
28F→: 持4條RAM了03/07 09:35
30F推: 其實VRAM還是王道,如果是一般的模型,offload就是慢,但如03/07 17:02
31F→: 果是MOE架構,如您這篇中提到要啟動的參數其中不多,所以就03/07 17:02
32F→: 變成是可行的方案了,從去年8月GPT oss 120B起,中階的開源03/07 17:03
33F→: 模型開始用這方案,接下來Qwen3就深獲好評,今年Kiki K2.503/07 17:03
34F→: 等幾個模型都是用這架構讓高階的消費級PC就可以執行的03/07 17:03
35F推: 一般來說,80B等級的MOE模型用16G VRAM+64G DRAM就可以順跑03/07 17:06
36F→: ,120B則是16G VRAM+96G DRAM就可順跑03/07 17:06
37F→: 再來就看上下文要多少來加RAM03/07 17:07
38F→: 不小心打錯名字,是kimi K2.503/07 17:09
28F推: 要把thinking關掉請查所用軟體該用的參數,在模型載入一併03/06 22:29
29F→: 關掉就不會有問題了03/06 22:29
15F推: GDDR7本來就需要比較小的記憶體匯流排59.115.179.74 03/06 07:34
18F推: 想起學生時代打工的機房,是380V專線的系統59.115.179.74 03/03 23:33
19F→: ,有一整個電池櫃,冷氣機也可接,那個水才59.115.179.74 03/03 23:33
20F→: 是真的深呀59.115.179.74 03/03 23:33
21F→: 專線是從外面台電變電箱直接100mm^2進來59.115.179.74 03/03 23:34
YCL13 在 PTT 的暱稱紀錄, 共 4 個
暱稱:靜默
文章數量:174
暱稱:隨波逐流
文章數量:6
暱稱:諸事不順
文章數量:3
暱稱:YY
文章數量:2