[情報] AMD正在開發NVIDIA DLSS的跨平台替代方案

看板PC_Shopping作者 (R20)時間3年前 (2020/11/01 11:37), 3年前編輯推噓25(250102)
留言127則, 28人參與, 3年前最新討論串1/2 (看更多)
據報導AMD正在開發NVIDIA DLSS的替代方案,並且將會是開放和跨平台 https://bit.ly/320Srjs -- AMD當前正在測試一項新的深度學習超高取樣功能,該功能旨在提高光線追蹤的性能。 https://i.imgur.com/Ez5POTV.png
根據The Verge的說法,此功能是NVIDIA DLSS功能的替代產品,並且將是開放和跨平台的 ,因此可能會推出到由AMD提供技術的PlayStation 5和Xbox SeriesX上。但是此功能可能 還有很長的路要走,因為它無法針對目前發布Radeon RX 6000的卡來做使用,而該卡將在 未來幾週內發布。 此前NVIDIA在三月份發布了DLSS 2.0。該功能由RTX系列GPU的Tensor核心提供支援,是一 種AI驅動的影像重建技術,可在不影響性能的情況下顯著改善視覺效果。包括Death Stranding和Ghostrunner在內的幾個最新遊戲都使用DLSS 2.0提供了前所未有的視覺品質 。 儘管AMD承諾將在4K遊戲及更多領域與NVIDIA並駕齊驅,但這場戰役最大的遺憾之一就是 缺少與NVIDIA的DLSS相當的產品。NVIDIA的AI驅動的深度學習超高取樣技術已經為支援該 技術的遊戲帶來了革命性的變化,只需切換遊戲設置即可帶來出色的影像品質和更高的 FPS。 AMD Radeon RX 6800 XT和RX 6800卡將於11月18日發布,而Radeon RX 6900 XT與NVIDIA GeForce RTX 3090相對應,將於12月8日發布。 -- 蘇媽大噴發 阿姨我不想努力了 這樣以後老黃的對手會越來越精明 好精彩 讓我們繼續看下去 -- https://i.imgur.com/ti8LmSx.jpg
https://i.imgur.com/3V8MFbS.png
https://i.imgur.com/TKKm9DO.jpg
https://i.imgur.com/qqcwtj6.jpg
https://i.imgur.com/s2M8J3L.jpg
https://i.imgur.com/P9blBWv.jpg
https://i.imgur.com/Ajd4i3P.jpg
https://i.imgur.com/8PZvlO5.jpg
https://i.imgur.com/8sBrIQv.png
https://i.imgur.com/31PKjTu.jpg
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.125.222.156 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1604201835.A.B91.html

11/01 11:42, 3年前 , 1F

11/01 11:43, 3年前 , 2F
它有家機+PC,甚至未來手持SOC客戶
11/01 11:43, 2F

11/01 11:44, 3年前 , 3F
當研發分母
11/01 11:44, 3F

11/01 11:48, 3年前 , 4F
驅動值5000?
11/01 11:48, 4F

11/01 11:51, 3年前 , 5F
AMD上一個喊開放的ROCm到現在還是涼涼的
11/01 11:51, 5F

11/01 11:58, 3年前 , 6F
基本上應該是要等2021才出來了吧
11/01 11:58, 6F

11/01 12:02, 3年前 , 7F
現在才正在開發已經晚了
11/01 12:02, 7F

11/01 12:06, 3年前 , 8F
如果是PS5和XSX能用的話 現在做也不晚吧
11/01 12:06, 8F

11/01 12:06, 3年前 , 9F
如果這是用Deep Network的作的 看起來不用太久?
11/01 12:06, 9F

11/01 12:09, 3年前 , 10F
人家是正在開發 不是準備開發好啦
11/01 12:09, 10F

11/01 12:17, 3年前 , 11F
AMD YES
11/01 12:17, 11F

11/01 12:30, 3年前 , 12F
Lisa Su 會不會是史上最傳奇的AMD CEO啊,太神了
11/01 12:30, 12F

11/01 12:30, 3年前 , 13F
11/01 12:30, 13F

11/01 12:41, 3年前 , 14F
AMD大量招募軟體工程師很久啦
11/01 12:41, 14F

11/01 12:42, 3年前 , 15F
蘇媽這個弄出來超划算,家機市場基本上就被紅軍綁死
11/01 12:42, 15F

11/01 13:00, 3年前 , 16F
AMD也要有獨立硬體做這塊阿 不然FPS照樣掉
11/01 13:00, 16F

11/01 13:08, 3年前 , 17F
DLSS替代方案...用來提高光追性能?
11/01 13:08, 17F

11/01 13:12, 3年前 , 18F
考慮到dlss很難選amd
11/01 13:12, 18F

11/01 13:12, 3年前 , 19F
好消息
11/01 13:12, 19F

11/01 13:15, 3年前 , 20F
這要看用什麼觀點 專用硬體佔電晶體
11/01 13:15, 20F

11/01 13:15, 3年前 , 21F
AMD應該傾向優化AI用指令在既有CU
11/01 13:15, 21F

11/01 13:16, 3年前 , 22F
透過DirectML去實作AI介入的upscale
11/01 13:16, 22F

11/01 13:16, 3年前 , 23F
這樣能沿用既有運算資源
11/01 13:16, 23F

11/01 13:17, 3年前 , 24F
不會有軟體不支援 專用硬體就浪費的問題
11/01 13:17, 24F

11/01 13:18, 3年前 , 25F
不做專用硬體 同面積可塞更多泛用ALU
11/01 13:18, 25F

11/01 13:18, 3年前 , 26F
兩種路線都有利有弊
11/01 13:18, 26F

11/01 13:19, 3年前 , 27F
有道理 如果能共用的話效率是最好的
11/01 13:19, 27F

11/01 13:19, 3年前 , 28F
AI部分弱的 可從其他部分加強追回來
11/01 13:19, 28F

11/01 13:20, 3年前 , 29F
最後還是看整體方案配套的大水庫效益
11/01 13:20, 29F

11/01 13:20, 3年前 , 30F
現代GPU搞成大量泛用運算 其實就是
11/01 13:20, 30F

11/01 13:21, 3年前 , 31F
因為以前繪圖晶片太多種專用線路
11/01 13:21, 31F

11/01 13:21, 3年前 , 32F
很多功能只有某些軟體在某些工作才用到
11/01 13:21, 32F

11/01 13:21, 3年前 , 33F
大部分時後閒置,浪費空間成本
11/01 13:21, 33F

11/01 13:22, 3年前 , 34F
所以趨勢仍是加強泛用化
11/01 13:22, 34F

11/01 13:23, 3年前 , 35F
但某些工作短期還無法靠泛用指令幹掉時
11/01 13:23, 35F

11/01 13:23, 3年前 , 36F
才塞沒啥彈性的專用硬體暫時解決
11/01 13:23, 36F

11/01 13:26, 3年前 , 37F
用泛用單位塞加速指令會較能下放低階
11/01 13:26, 37F

11/01 13:26, 3年前 , 38F
會限定套裝加乘嗎
11/01 13:26, 38F

11/01 13:39, 3年前 , 39F
同意kuma大觀點,其實更近的例子看RT就知道了
11/01 13:39, 39F
還有 48 則推文
還有 2 段內文
11/01 21:55, 3年前 , 88F
能不能跟老黃打是一回事,開發商願不願意支援只有
11/01 21:55, 88F

11/01 21:55, 3年前 , 89F
N卡上面才能跑的技術則是另一回事了
11/01 21:55, 89F

11/01 22:31, 3年前 , 90F
mClassic只是單存升頻而已,就像是你模擬器那樣
11/01 22:31, 90F

11/01 22:31, 3年前 , 91F
提高解析度降低反鋸齒,DLSS細節差很多不只升頻
11/01 22:31, 91F

11/01 22:31, 3年前 , 92F
那們簡單而已,AI重建確實會多補一些奇怪的東西
11/01 22:31, 92F

11/01 22:32, 3年前 , 93F
但效果而言大家都是滿意的包掛我自己,用過自然
11/01 22:32, 93F

11/01 22:32, 3年前 , 94F
就懂為什麼要吹DLSS2.0,至於支援度我是不擔心
11/01 22:32, 94F

11/01 22:32, 3年前 , 95F
聽說3.0是可以直接套用在TAA上面,因為TAA太多
11/01 22:32, 95F

11/01 22:32, 3年前 , 96F
廠商在用了
11/01 22:32, 96F

11/01 22:33, 3年前 , 97F
2.0已經是無針對性的model了 對開發商而言已經沒啥
11/01 22:33, 97F

11/01 22:33, 3年前 , 98F
成本了 以前的還要特地給NV慢慢Train
11/01 22:33, 98F

11/01 22:48, 3年前 , 99F
那這樣的話AMD確實是要緊張一點了,不過比起AMD可能
11/01 22:48, 99F

11/01 22:48, 3年前 , 100F
家機在這方面可能更緊張wwww
11/01 22:48, 100F

11/01 22:50, 3年前 , 101F
我自己實測過後也是有發現3090真要像NV發表上說可上
11/01 22:50, 101F

11/01 22:50, 3年前 , 102F
8K也是要非常依賴DLSS
11/01 22:50, 102F

11/02 00:32, 3年前 , 103F
沒有3.0 只有2.1
11/02 00:32, 103F

11/02 09:09, 3年前 , 104F
繼續騙
11/02 09:09, 104F

11/02 09:59, 3年前 , 105F
DLSS2不對遊戲trainning,因為原理
11/02 09:59, 105F

11/02 09:59, 3年前 , 106F
更像TXAA等後製了
11/02 09:59, 106F

11/02 10:01, 3年前 , 107F
DLSS2的前身 甚至沒用TensorCore
11/02 10:01, 107F

11/02 10:01, 3年前 , 108F
新原理是基於時序資料重建 屬於後製
11/02 10:01, 108F

11/02 10:02, 3年前 , 109F
用前幾個frame資料 加入推算
11/02 10:02, 109F

11/02 10:02, 3年前 , 110F
所以也無法做什麼訓練
11/02 10:02, 110F

11/02 10:02, 3年前 , 111F
後來正式推廣版加入TensorCore協助
11/02 10:02, 111F

11/02 10:07, 3年前 , 112F
DLSS1才是更傳統AI,用圖片訓練演算法
11/02 10:07, 112F

11/02 10:07, 3年前 , 113F
試著修復失去的細節
11/02 10:07, 113F

11/02 10:08, 3年前 , 114F
DLSS2算是半放棄那低能方式
11/02 10:08, 114F

11/02 10:09, 3年前 , 115F
直接跟引擎要前幾影格的動態向量圖
11/02 10:09, 115F

11/02 10:09, 3年前 , 116F
用多影格的舊資訊重建得到新影格資料
11/02 10:09, 116F

11/02 10:10, 3年前 , 117F
不是像DLSS1用AI想要無中生有
11/02 10:10, 117F

11/02 10:11, 3年前 , 118F
DLSS2的資料是前幾frame實際存在的
11/02 10:11, 118F

11/02 10:11, 3年前 , 119F
用算法去找出來 補到當前frame
11/02 10:11, 119F

11/02 10:13, 3年前 , 120F
其實你把upscale算法加上時序等資料
11/02 10:13, 120F

11/02 10:14, 3年前 , 121F
結果及原理就87%像
11/02 10:14, 121F

11/02 10:14, 3年前 , 122F
堅持叫DLSS也算是一種行銷
11/02 10:14, 122F

11/02 10:15, 3年前 , 123F
這蠻有可能不用TensorCore也能實作
11/02 10:15, 123F

11/02 10:16, 3年前 , 124F
弄翻倍的FP16甚或某種專用指令
11/02 10:16, 124F

11/02 10:16, 3年前 , 125F
效率大概也差不多
11/02 10:16, 125F

11/02 10:17, 3年前 , 126F
它大部分提速不是來自於用TensorC
11/02 10:17, 126F

11/02 10:17, 3年前 , 127F
而是來自繪圖解析度降低到25-50%的結果
11/02 10:17, 127F
文章代碼(AID): #1VdYrhkH (PC_Shopping)
文章代碼(AID): #1VdYrhkH (PC_Shopping)