[新聞] 輝達以全面布局AI處理器之姿,推出H200以及專為中國設計的AI解決方案

看板Tech_Job作者 (H)時間6月前 (2023/11/17 16:15), 編輯推噓3(301)
留言4則, 4人參與, 6月前最新討論串1/1
輝達以全面布局AI處理器之姿,推出H200以及專為中國設計的AI解決方案 https://bit.ly/3QHsRZs 全球最有價值的晶片製造商輝達(Nvidia)公司正在更新其H100人工智慧處理器,為產品 增添更多功能,從而鞏固了其在AI運算市場的主導地位。如今輝達於11月13日表示,其預 計2024年第二季推出H200的新型號,其將使用高頻寬記憶體(HBM3e),能夠更好地應對 開發和執行AI所需的大型數據集。 簡單來說,除了記憶體之外,H200與H100基本相同。 但對其記憶體的改變帶來了有意義 的升級。H200首次使用HBM3e,這使得GPU的記憶體頻寬從H100 的每秒3.35 TB提高到4.8 TB,總記憶體容量從前代產品的80GB提高到141GB。 透過新產品,輝達正試圖跟上用於創建AI模型和服務的資料集規模。所以加入增強的記憶 體功能將使H200應對帶有數據的軟體時,速度更快,這是訓練AI執行辨識影像和語音等任 務的過最主要過程。 亞馬遜公司的AWS、Alphabet公司的谷歌雲端、微軟和甲骨文公司的雲端基礎設施都承諾 從2024年開始使用這款新晶片。 Wolfe研究公司表示,輝達通常不會更新其數據中心處理器,這一次的更新,進一步證明 輝達正在加快產品節奏,以應對AI市場的成長和性能要求,也可擴大輝達和競爭者之間的 差距。例如:超微將於2023年第四季將MI300晶片推向市場,而英特爾則聲稱其Gaudi 2型 號比H100更快。 從價格角度來看,鑑於新版本性能的提高,該公司可能會要求更高的價格。根據報告指出 ,H100的零售價格估計為每顆25,000至40,000美元。那麼可想而知的是,H200將比這一價 格還高。 2024年對於GPU買家來說將是一個更有利的時期。因為輝達原本計劃在2024 年將H100的產 量增加三倍以上。目標是明年將產量從2023年的約50萬顆增加200萬顆。如今H200的出現 ,以及超微的加入戰局,將可讓仍具有爆炸性成長的生成式AI,無論GPU在質和量上都雙 重增加。 輝達除了滿足除了中國以外市場的需求外,也針對不斷變化的美國限制法規,又再一次開 發專為中國客製化的新AI晶片系列。根據現在獲得之資訊,面向中國的新晶片有三種配置 ,分別為 H20、L20和L2。 根據 Bernstein Research 的分析,H20將是三者中最強大的,即是如此也將無需向美國 申請出口授權。更不用談L20和L2等兩款效能較低的晶片了。 對於輝達來說,由於其晶片相關的軟體是AI開發領域最先進、最強大的軟體之一,這是吸 引中國雲端業者的致命關鍵之一。即使有華為積極搶奪輝達在中國的AI晶片市場,但輝達 只要持續推出產品,其仍有機會持續維持一定地位。 總之,輝達正以全面布局之姿,想持續主導AI晶片。短期幾年看起來,輝達仍占據很大優 勢,其他廠商要競爭仍有一段不小差距呢! -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.145.192.245 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1700208955.A.20C.html

11/17 16:20, 6月前 , 1F
漲?
11/17 16:20, 1F

11/17 17:18, 6月前 , 2F
噴爆
11/17 17:18, 2F

11/17 19:45, 6月前 , 3F
賺爛了
11/17 19:45, 3F

11/18 09:22, 6月前 , 4F
懷疑AI這隻會自我審查
11/18 09:22, 4F
文章代碼(AID): #1bLo4x8C (Tech_Job)