作者查詢 / Ghosts

總覽項目: 發文 | 留言 | 暱稱
作者 Ghosts 在 PTT [ PC_Shopping ] 看板的留言(推文), 共177則
限定看板:PC_Shopping
[請益] 深度學習平台搭建請益
[ PC_Shopping ]47 留言, 推噓總分: +6
作者: michael4210 - 發表於 2025/03/27 20:25(10月前)
34FGhosts: 買個礦架放3090,背板黏散熱片36.228.223.37 03/28 12:56
35FGhosts: 正面鎖五個AP3000,瓦數限320~350W36.228.223.37 03/28 12:56
36FGhosts: 用gddr6監控 VRAM不超過90度36.228.223.37 03/28 12:56
37FGhosts: nvlink 不太好買就是了36.228.223.37 03/28 12:56
38FGhosts: T10約2080ti的60%,還不錯36.228.223.37 03/28 13:02
39FGhosts: 組雙卡或四卡都行,缺點是要改又是二手36.228.223.37 03/28 13:02
40FGhosts: 沒支援FP8, FP4 不是啥大問題36.228.223.37 03/28 13:02
41FGhosts: 當推理卡用就好了36.228.223.37 03/28 13:02
[請益] AI用卡請益
[ PC_Shopping ]72 留言, 推噓總分: +24
作者: capcomjohnny - 發表於 2025/03/18 10:02(10月前)
53FGhosts: Arc A770 可以跑沒錯,前提是你會用140.118.155.56 03/18 15:59
54FGhosts: 別看fun科技跑量化模型很輕鬆140.118.155.56 03/18 15:59
55FGhosts: 基礎配置麻煩的很,那個教學完全是在繞路140.118.155.56 03/18 15:59
56FGhosts: 裝ipex llm第一要件就是全用docker140.118.155.56 03/18 15:59
57FGhosts: 然後要定頻,不然會發現token/s不如預期140.118.155.56 03/18 15:59
[情報] 技嘉逆市推出更多 ICU 主機板! W880+B860
[ PC_Shopping ]73 留言, 推噓總分: +35
作者: TFGlajumbo - 發表於 2025/03/12 14:19(10月前)
52FGhosts: AI top塞三個m.2插槽140.118.155.56 03/12 16:24
53FGhosts: 把PCIE槽放在那個奇怪的位置140.118.155.56 03/12 16:24
54FGhosts: 還不如去買Asus的proart,正常的多140.118.155.56 03/12 16:24
65FGhosts: 表示有PCIE通道x8/x8拆分140.118.155.56 03/12 19:12
Re: [請益] 學校實驗室組電腦廠商
[ PC_Shopping ]75 留言, 推噓總分: +16
作者: douge - 發表於 2025/02/25 10:34(11月前)
8FGhosts: 講句實話,誰有心情等廠商提供服務101.139.28.172 02/25 11:17
9FGhosts: 哪裡壞拆哪裡出保,然後去買新的換101.139.28.172 02/25 11:17
Re: [菜單] 120K LLM+SD 5090 AI生成機
[ PC_Shopping ]9 留言, 推噓總分: +2
作者: s78513221 - 發表於 2025/02/05 18:38(11月前)
6FGhosts: v100現在就雞肋,正經4x, 8x載板太貴61.228.91.134 02/06 16:27
7FGhosts: 轉接板便宜的沒nvlink,鼓風扇那款貴61.228.91.134 02/06 16:27
8FGhosts: 正經研究已經轉fp8訓練或微調61.228.91.134 02/06 16:27
9FGhosts: 而普通人拿v100來推理,速度不行61.228.91.134 02/06 16:27
[閒聊] 甚麼時候會出Intel W880晶片組?
[ PC_Shopping ]20 留言, 推噓總分: +9
作者: CardLin - 發表於 2025/01/14 09:53(1年前)
20FGhosts: 3647便宜好用,epyc現在還是好貴222.250.198.151 01/15 09:03
[請益] 老電腦裝新顯卡
[ PC_Shopping ]123 留言, 推噓總分: +31
作者: wahaha01 - 發表於 2024/12/17 23:05(1年前)
110FGhosts: 有買i卡那個錢還不如買2060 6/12g 5k有保222.250.11.11 12/18 13:56
111FGhosts: 1060 單純madvr升頻ok222.250.11.11 12/18 13:56
112FGhosts: 再掛hdr或補貞估計會撐不住222.250.11.11 12/18 13:56
113FGhosts: 會吃到cpu只會是你filter沒掛好222.250.11.11 12/18 13:56
114FGhosts: 至於組8600g... 有錢沒處花才組222.250.11.11 12/18 13:56
115FGhosts: 搞半天弄一個跟1050差不多的主機也蠻好笑222.250.11.11 12/18 13:56
116FGhosts: 的222.250.11.11 12/18 13:56
117FGhosts: 然後1050ti同樣理由,madvr全開會99%爆掉222.250.11.11 12/18 14:05
[請益] 3~4K 實驗室無線AP選擇
[ PC_Shopping ]47 留言, 推噓總分: +9
作者: E7lijah - 發表於 2024/09/25 01:02(1年前)
34FGhosts: d-link m60101.137.209.96 09/25 09:46
[菜單] 150K_AI模型訓練機+工作站搭配請益
[ PC_Shopping ]52 留言, 推噓總分: +4
作者: powergene - 發表於 2024/09/11 00:38(1年前)
22FGhosts: 專注LLM還不如i家d4擠出兩張4090來的有用101.136.82.165 09/11 09:02
[閒聊] LLM 推理用機器
[ PC_Shopping ]88 留言, 推噓總分: +18
作者: sachialanlus - 發表於 2024/06/16 15:43(1年前)
35FGhosts: 3090x4 + nvlink(非必要) 最簡單140.118.155.56 06/16 18:35
36FGhosts: 價格也不會到無法負擔,只是二手風險高140.118.155.56 06/16 18:35
37FGhosts: llama.cpp的問題是高併發會輸vllm140.118.155.56 06/16 18:35
38FGhosts: 除非要用cpu+gguf 4bit之類的模型140.118.155.56 06/16 18:35
39FGhosts: 不然個人偏好還是vllm+gpu140.118.155.56 06/16 18:35
40FGhosts: 然後12t/s超慢,顯卡隨便都能破百以上140.118.155.56 06/16 18:37