作者查詢 / oopFoo
作者 oopFoo 在 PTT 全部看板的留言(推文), 共6470則
限定看板:全部
看板排序:
65F推: AMD的NPU根本都還沒有支援,DirectML目前219.70.128.119 03/04 06:13
66F→: 只支援intel的,AMD的還在開發中。ROCM的219.70.128.119 03/04 06:14
67F→: roadmap也還沒看到npu的支援。219.70.128.119 03/04 06:16
68F→: 最新消息是,win11的工作管理員可以看到219.70.128.119 03/04 06:19
69F→: AMD的NPU了,總算是開始了。到底什麼時候219.70.128.119 03/04 06:20
70F→: 可以用?AMD到現在還沒給個說法。219.70.128.119 03/04 06:20
71F→: https://reurl.cc/979rDX219.70.128.119 03/04 06:23
72F→: Intel的NPU現在可以在Pytorch玩了。ARC也219.70.128.119 03/04 06:25
73F→: 支援Pytorch沒多久,NPU就支援上了。NPU219.70.128.119 03/04 06:26
74F→: team的效率實在很高,不過也是NPU架構非常219.70.128.119 03/04 06:26
75F→: 簡單。219.70.128.119 03/04 06:26
76F推: 目前npu只是功耗佳。igpu的效能還是贏。219.70.128.119 03/04 06:41
89F推: npu當初設定根本沒考慮sd,gpt的運用,這219.70.128.119 03/04 08:14
90F→: 兩年gen AI大爆發是沒料到的事。npu的性能219.70.128.119 03/04 08:15
91F→: 目前是不足的,等二代或三代,或AI優化到219.70.128.119 03/04 08:16
92F→: 位為止。現在錢滾進AI,AI優化應該是有機219.70.128.119 03/04 08:16
93F→: 會大躍進。npu目前真只是玩具而已。219.70.128.119 03/04 08:18
105F推: 桌上cpu tile用gg的,現在看到5.8不太可能219.70.128.119 03/04 06:07
106F→: GPU的單元也不對,32E應該是很低階的219.70.128.119 03/04 06:08
11F推: 不只是版本問題,ZLUDA三年後還是Alpha版219.70.128.119 03/02 09:48
12F→: 相容性很差,除了一些Benchmark,正常程式219.70.128.119 03/02 09:49
13F→: 幾乎沒一個可用。最重要的Pytorch支援也完219.70.128.119 03/02 09:51
14F→: 全不行。Intel跟AMD都相繼放棄不是沒原因219.70.128.119 03/02 09:52
21F推: Pytorch支援ROCM,但要有能力debug,219.70.128.119 03/02 10:34
22F→: 最好用docker,常常需要重新設定。最重要219.70.128.119 03/02 10:35
23F→: 的事,選有支援GPU,現在要7900xtx/xt/gre219.70.128.119 03/02 10:37
60F推: 不支援的GPU其實大部分可跑,但問題會更多219.70.128.119 03/02 18:55
61F→: 而且不能file bug report。換句話說,真有219.70.128.119 03/02 18:56
62F→: 問題,AMD不會處理。現在ROCM的AI相容性219.70.128.119 03/02 18:57
63F→: 越來越好,花點錢買有在支援名單上的划算219.70.128.119 03/02 18:58
67F推: 可以嘗試,但4080s的ai會比較強,n家有219.70.128.119 03/02 19:36
68F→: tensor core。但7900xtx有24GB,大記憶體219.70.128.119 03/02 19:36
69F→: 比效能要重要。219.70.128.119 03/02 19:37
70F推: 但這建立在你能處理問題上。n家的ai是沒219.70.128.119 03/02 19:39
71F→: 煩惱,支援完整。219.70.128.119 03/02 19:40
68F→: 論文作者一半以上是微軟亞洲研發的員工。我是在釣XD02/29 09:00
94F→: 有3.9B的,70B的還在路上。如果這可行,就不需要02/29 09:43
97F→: GPU做inference。普通CPU就可用了,這是關鍵。02/29 09:44
99F→: 本來贏者全拿的,現在每個人都有機會。int add很容02/29 09:47
100F→: 易的。然後本來是compute限制的,現在回到data限制02/29 09:48
103F→: 誰有好的data足夠的data會是目前的領先者。02/29 09:48
187F→: Mamba用prefix-sums來避開rnn不能平行運算的問題。02/29 13:43
191F→: parallel scan(prefix sums)可以用tensor core啊。02/29 13:48
192F→: 只是比較麻煩而已。Mamba的問題是"selective"會不會02/29 13:49
193F→: 太loosy。目前看來是沒問題的,但還是需要更大的02/29 13:50
195F→: model來證實。Mamba最重要是"context"可以變得很大02/29 13:50
196F→: 當你有unlimited context的時候。直接就用zero shot02/29 13:52
197F→: learning了,RAG就不需要了,更容易使用。02/29 13:53
10F推: 推,但看到discord,必須噓一下02/26 10:11
19F推: 酷,推推111.248.100.73 02/23 09:16
3F推: 買新不買舊。7500F36.224.244.52 02/20 16:12
34F推: RGT的消息準確率很低。沒參考價值111.248.100.73 02/20 12:03
12F推: CFD大都是memory bound。家用主機只有雙通111.248.99.179 02/10 16:36
13F→: 道,所以大概8核就滿載了。可考慮x3d,理111.248.99.179 02/10 16:37
14F→: 論上,有些模型x3d很有幫助,5700x3d剛好111.248.99.179 02/10 16:37
15F→: 出來,快買一買試試。111.248.99.179 02/10 16:38
3F→: 應該是庫存,數量好像不多219.70.128.119 02/02 21:26
37F→: 6800xt,啪,沒了。大家都蠻識貨的219.70.128.119 02/02 21:48
50F→: 跟4060ti比只是想說6800/xt是多划算,不是219.70.128.119 02/02 22:08
51F→: 在比性能。6800這價錢其實也不差219.70.128.119 02/02 22:09
53F→: 桃子網的rx6800還在賣18990219.70.128.119 02/02 22:10