[新聞] 英特爾:GPU已過時,Nvidia的人工智慧之路會越來越難

看板Tech_Job作者 (321)時間7年前 (2017/04/10 11:37), 編輯推噓15(1507)
留言22則, 18人參與, 最新討論串1/1
英特爾:GPU已過時,Nvidia的人工智慧之路會越來越難 剛剛上任的英特爾人工智慧事業部(AIPG)首席技術長 Amir Khosrowshahi 表示,目前 所使用 GPU 等級太低了,半導體產業需要構建全新的神經網路架構。 在出任這個新職位之前,Khosrowshahi 是 Nervana System(下簡稱 Nervana) 的聯合 創始人兼首席技術長,Nervana 於 2016 年 8 月被英特爾收購,但並未對外披露具體的 收購金額。Nervana 利用最先進的技術來使用 GPU,而且還自行研發替代了標準的 Nvidia 組合語言程式,從而讓 Nervana 能夠生成「次優」的架構體系。在英特爾大力 部署人工智慧戰略的大背景下,該公司所能提供的技術迅速成為了發展的核心力量。 Khosrowshahi 本週四向 ZDNet 透露:「早在 Nervana 成立之初我們就著手研發自己的 組合語言程式,當時只是為了我們自己的研發需求,不過後來我們發現它要比 Nvidia 官 方的庫存快兩到三倍,所以我們就將其開源了。」 Nervana 並不僅僅在軟體方面發力,而且還創建了自己的目標向神經網路訓練。 他說道:「神經網路是預先設定好操作的系列整合。它並不像人類和系統之間的互動,而 是被描述為數據流的系列指令集。」 Khosrowshahi 表示,在執行圖形渲染過程中輔助圖形處理單元的部分功能是沒有必要的 ,比如大容量暫存、頂點著色處理、 渲染和紋理等。他表示:「GPU 中的大部分電路在 部署機器學習之後是沒有必要的… 這些東西會隨著時間的推移而不斷積累,最終產生了 非常多無用的東西。」 他進一步解釋:「對你來說並不需要的電路,在 GPU 晶片中不僅佔據了很大一片空間, 而且從能源利用率上考慮也產生了相當高的成本。神經網路則相當簡單,利用小巧的矩陣 乘法和非線性就能直接創建半導體來實現 GPU 的功能,而且你所創建的半導體非常忠誠 於神經網路架構,顯然這是 GPU 所無法給予的。」在設計思路上,CPU 有複雜的控制邏 輯和諸多最佳化電路,相比之下計算能力只是 CPU 很小的一部分;而 GPU 採用了數量眾 多的計算單元和超長的流水線,但只有非常簡單的控制邏輯並省去了快取,因而在需要大 量計算的機器學習方面表現更好,而 TPU 則是專為機器學習的矩陣乘法設計和優化,因 而在機器學習方面比 GPU 更勝一籌。 Khosrowshahi 給出的答案:就是目前尚在開發中的 Lake Crest,這是英特爾今年會針對 部分客戶提供離散加速器。但伴隨著時間的推移,它將會成為 Xeon 處理器的最佳夥伴。 Khosrowshahi 解釋:「這是一個張量(tensor)處理器,能夠處理帶矩陣運算的指令。 因此指令集是矩陣 1 和矩陣 2 的相乘,不僅透過查詢表運行而且這些大型的指令都是高 級別的。」 「GPU 主要依靠一個個寄存器(Register),當訪問(或者跳轉到)某個寄存器,所執行 的是元素和元素之間的相乘,這個級別是相當的低了。」 Khosrowshahi 表示,最近幾年 Nvidia 已經努力讓他們的 GPU 對神經網路更加友善,但 是他們的 AI 晶片依然承擔了大量圖形功能。他表示:「如果只是依靠自己來推動晶片方 面的改進,我認為未來 Nvidia 的進化將會變得越來越困難。」 與之對應的,英特爾則通過收購的方式來推進人工智慧。 Khosrowshahi 說:「晶片產業的挑戰是即將迎來顛覆性的全新架構:而現在英特爾所做 的事情就是將其收入麾下。他們想要獲得 FPGAs(現場可程式邏輯門陣列),所以他們收 購了 Altera。這真的是一個非常酷炫非常神經網路的架構。」 此外 Khosrowshahi 還糾正了很多人對神經網路的錯誤想法,他表示並不是將神經網路蝕 刻到半導體上,大部分的功能依然通過軟體方面來形成。 他說道:「神經網路大部分都體現在軟體方面。所以即使是 Lake Crest,指令並不是『 神經網路,執行這項任務』,而是透過矩陣和矩陣的相乘。晶片外層部分就是一些我們所 熟知的神經網路,在經過培訓之後能夠根據用戶需求來執行各種任務或者搜尋某種參數, 當你擁有神經網路之後你就能做任何可以完成的事情。」 英特爾的其中一個人工智慧架構將會對抗 Google 的定制 TPU。在 4 月 5 日搜尋龍頭 Google 表示, TPU 的平均運轉速度要比標準的 GPU/CPU 組合(比如 Intel 的 Haswell 處理器和 Nvidia 的 K80 GPU)快 15~30 倍。在數據中心計算功耗時,TPU 還 提供 30-80 倍的 TeraOps/瓦特(如果未來使用更快的儲存裝置,這一數字可能還會提高 )。 同樣在今年 4 月 5 日,IBM 和 Nvidia 還宣布 Big Blue 在今年 5 月開始向特斯拉 P100S 提供 IBM Cloud 服務。 http://technews.tw/2017/04/10/intel-nvidia-is-going-hard-in-future/ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.140.238.234 ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1491795425.A.6C9.html

04/10 11:42, , 1F
要戰了嗎?
04/10 11:42, 1F

04/10 11:47, , 2F
怎麼一直在放話呢 廠廠
04/10 11:47, 2F

04/10 11:50, , 3F
剛上任的技術長 當然要放話說自己的東西很重要
04/10 11:50, 3F

04/10 12:21, , 4F
外星科技要出動了,本來不想用這招的
04/10 12:21, 4F

04/10 12:49, , 5F
這已經不是我們可以參與的東西了...
04/10 12:49, 5F

04/10 12:49, , 6F
快推 不然別人以為我們看不懂
04/10 12:49, 6F

04/10 12:59, , 7F
早知道好好修ML,我知道它但不懂它。
04/10 12:59, 7F

04/10 13:16, , 8F
Arm表示
04/10 13:16, 8F

04/10 14:23, , 9F
只會嘴 那你趕快拿出來賣阿
04/10 14:23, 9F

04/10 14:37, , 10F
怎麼不是用TFLOPS/Watt當比較單位啊
04/10 14:37, 10F

04/10 14:47, , 11F
說什麼幹話,當年我跑實驗兩個矩陣乘了一個禮拜還乘不完,
04/10 14:47, 11F

04/10 14:47, , 12F
最後算特徵把矩陣縮小才變快
04/10 14:47, 12F

04/10 15:29, , 13F
2年前intel就嗆NV要完了,結果uccu
04/10 15:29, 13F

04/10 15:30, , 14F
要執行cuda的架構 是真的需要一定的硬體成本
04/10 15:30, 14F

04/10 15:33, , 15F
multi-thread 發展這麼多年也不是新東西了
04/10 15:33, 15F

04/10 16:20, , 16F
I皇要發威啦
04/10 16:20, 16F

04/10 20:22, , 17F
04/10 20:22, 17F

04/10 22:54, , 18F
AI 用 ASIC+ FPGA才是未來吧
04/10 22:54, 18F

04/10 23:12, , 19F
但重點是最強的FPGA是賽林斯啊,i家的Atera都被木馬屠
04/10 23:12, 19F

04/10 23:12, , 20F
城了
04/10 23:12, 20F

04/10 23:13, , 21F
然後賽林斯在幹嘛?在跟GG愛愛啊,你知道嗎?
04/10 23:13, 21F

04/11 22:23, , 22F
N早就甩開I一大截了好嗎
04/11 22:23, 22F
文章代碼(AID): #1OwltXR9 (Tech_Job)