[新聞] AI晶片競爭開跑,谷歌公布第四代TPU,宣稱比輝達A100晶片更快更節能
原文標題:
AI晶片競爭開跑,谷歌公布第四代TPU,宣稱比輝達A100晶片更快更節能
原文連結:
https://bit.ly/3meYAG8
發布時間:
2023.4.6
記者署名:
茋郁
原文內容:
谷歌於2023年4月5日公佈了其用於訓練AI模型的超級電腦的新細節,稱該系統比輝達的同類型系統A100更快、更節能。雖然現今大多數涉足AI領域的公司的處理能力都來自輝達的晶片,但谷歌設計自己客製化晶片Tensor Processing Unit(TPU)期望能夠推動其在AI研究。
谷歌是在COVID-19大流行高峰期間宣布了其Tensor晶片,當時從電子到汽車的企業面臨晶片短缺的困境。由於谷歌看到蘋果在客製化晶片的投入,幫助了iPhone以及其他產品的開發。因此最初該晶片是為其Pixel智慧型手機提供動力,可是歷經幾年之後,谷歌將TPU延伸至更多領域,可見得其開發方面取得了長足的進步。
如今谷歌90%以上的AI訓練工作都使用這些晶片,即通過模型提供數據的過程,使它們在諸如類似人類的文字查詢或生成影像等任務中發揮作用。
谷歌TPU現在已經是第四代了。之所以世代晶片發展那麼迅速的關鍵在於,谷歌使用AI來設計其TPU晶片。谷歌聲稱,與人類花費數月時間設計晶片相比,使用AI設計晶片僅需要6小時即可完成設計過程。
一旦採用AI設計晶片,產品迭代都在迅速發生,這就是TPU進入第四代的原因。未來隨著生成式AI的快速發展,將造成大型語言模型的規模呈現爆炸式成長,這意味著它們太大而無法儲存在單顆晶片上。所以谷歌客製化開發的光訊號交換器將4,000多顆晶片串在一起成為一台超級電腦,以幫助連接各個機器。此外,微軟也是將晶片拼接在一起以滿足OpenAI的研究需求。
谷歌指出,PaLM模型——其迄今為止最大的公開披露的語言模型——通過在50天內將其拆分到4,000顆晶片超級電腦中的兩個來進行訓練。更重要的是,其超級電腦可以輕鬆地動態重新配置晶片之間的連接,有助於避免出現問題並進行調整以提高性能。
谷歌除了自己使用TPU之外,一家新創公司Midjourney使用該系統訓練其模型,該模型在輸入幾句文字後即可生成新影像。
可是谷歌並沒有將其第四代晶片與輝達目前的旗艦H100晶片進行比較。谷歌暗示它可能正在開發一種新的TPU,它將與輝達H100展開競爭。
總之,隨著生成式AI的崛起,AI晶片的開發腳步將成為下一個廠商積極介入的領域,以搶奪未來商機。
心得/評論:
Google公布第四代TPU,並宣稱比NVIDIA A100更快更節能,其客戶Midjourney利用TPU訓練其模型再輸入文字後生成圖片。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.40.35 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1680831887.A.ACB.html
推
04/07 09:49,
2年前
, 1F
04/07 09:49, 1F
推
04/07 09:51,
2年前
, 2F
04/07 09:51, 2F
推
04/07 09:51,
2年前
, 3F
04/07 09:51, 3F
推
04/07 09:52,
2年前
, 4F
04/07 09:52, 4F
推
04/07 09:53,
2年前
, 5F
04/07 09:53, 5F

→
04/07 09:56,
2年前
, 6F
04/07 09:56, 6F
推
04/07 09:58,
2年前
, 7F
04/07 09:58, 7F
→
04/07 09:59,
2年前
, 8F
04/07 09:59, 8F
推
04/07 09:59,
2年前
, 9F
04/07 09:59, 9F
噓
04/07 10:01,
2年前
, 10F
04/07 10:01, 10F
→
04/07 10:08,
2年前
, 11F
04/07 10:08, 11F
→
04/07 10:08,
2年前
, 12F
04/07 10:08, 12F
推
04/07 10:13,
2年前
, 13F
04/07 10:13, 13F
推
04/07 10:14,
2年前
, 14F
04/07 10:14, 14F
推
04/07 10:17,
2年前
, 15F
04/07 10:17, 15F
推
04/07 10:20,
2年前
, 16F
04/07 10:20, 16F
→
04/07 10:20,
2年前
, 17F
04/07 10:20, 17F
→
04/07 10:21,
2年前
, 18F
04/07 10:21, 18F
推
04/07 10:23,
2年前
, 19F
04/07 10:23, 19F
推
04/07 10:24,
2年前
, 20F
04/07 10:24, 20F
→
04/07 10:24,
2年前
, 21F
04/07 10:24, 21F
推
04/07 10:25,
2年前
, 22F
04/07 10:25, 22F
推
04/07 10:30,
2年前
, 23F
04/07 10:30, 23F
噓
04/07 10:33,
2年前
, 24F
04/07 10:33, 24F
→
04/07 10:34,
2年前
, 25F
04/07 10:34, 25F
→
04/07 10:34,
2年前
, 26F
04/07 10:34, 26F
→
04/07 10:34,
2年前
, 27F
04/07 10:34, 27F
噓
04/07 10:35,
2年前
, 28F
04/07 10:35, 28F
推
04/07 10:37,
2年前
, 29F
04/07 10:37, 29F
→
04/07 10:43,
2年前
, 30F
04/07 10:43, 30F
推
04/07 10:44,
2年前
, 31F
04/07 10:44, 31F
噓
04/07 11:03,
2年前
, 32F
04/07 11:03, 32F
推
04/07 11:09,
2年前
, 33F
04/07 11:09, 33F
→
04/07 11:13,
2年前
, 34F
04/07 11:13, 34F
推
04/07 11:22,
2年前
, 35F
04/07 11:22, 35F
推
04/07 11:51,
2年前
, 36F
04/07 11:51, 36F
推
04/07 12:08,
2年前
, 37F
04/07 12:08, 37F
推
04/07 12:13,
2年前
, 38F
04/07 12:13, 38F
推
04/07 12:17,
2年前
, 39F
04/07 12:17, 39F
推
04/07 12:21,
2年前
, 40F
04/07 12:21, 40F
噓
04/07 12:36,
2年前
, 41F
04/07 12:36, 41F
推
04/07 12:40,
2年前
, 42F
04/07 12:40, 42F
→
04/07 12:53,
2年前
, 43F
04/07 12:53, 43F
推
04/07 12:57,
2年前
, 44F
04/07 12:57, 44F
推
04/07 13:12,
2年前
, 45F
04/07 13:12, 45F
→
04/07 13:15,
2年前
, 46F
04/07 13:15, 46F
→
04/07 13:17,
2年前
, 47F
04/07 13:17, 47F
推
04/07 13:18,
2年前
, 48F
04/07 13:18, 48F
推
04/07 13:28,
2年前
, 49F
04/07 13:28, 49F
推
04/07 13:30,
2年前
, 50F
04/07 13:30, 50F
推
04/07 13:34,
2年前
, 51F
04/07 13:34, 51F
→
04/07 14:24,
2年前
, 52F
04/07 14:24, 52F
→
04/07 14:27,
2年前
, 53F
04/07 14:27, 53F
→
04/07 14:43,
2年前
, 54F
04/07 14:43, 54F
推
04/07 20:06,
2年前
, 55F
04/07 20:06, 55F
討論串 (同標題文章)
以下文章回應了本文:
完整討論串 (本文為第 1 之 2 篇):