Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片

看板Stock作者 (pttlushen)時間7月前 (2023/10/07 21:49), 7月前編輯推噓4(8419)
留言31則, 19人參與, 7月前最新討論串2/3 (看更多)
上次台裔Google科學家紀懷新Ed H. Chi (L9)來台灣接受訪問的時候就有談到這個: 今天記者會上,紀懷新也解密,其實 Google 在訓練 AI 時,100% 使用的都是自家的 TPU,「Google 很早就在 AI 領域投入了大量資源,包括硬體,包括裡頭的數學、算法等 ,這些都是我們的強項。」 Google 2023 最新的論文 TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings Abstract 1.2x–1.7x faster and uses 1.3x–1.9x less power than the Nvidia A100 大公司自己搞這些東西沒問題 沒資源搞這些有的沒的 還是只能跟Nvidia買沒衝突 至於什麼生態 大公司完全可以自己在公司搞一套自己專用的工具 進來的人自然會想辦法學會這套工具怎麼用 https://www.inside.com.tw/article/32510-Google-Bard-Ed 微軟要搞鏟子好啊 還是只能找台積電代工 代工鏟子94舒服 ※ 引述《jerrychuang ()》之銘言: : 原文標題: : 減少依賴輝達 傳微軟將推自研首款AI晶片 : 原文連結: : https://ec.ltn.com.tw/article/breakingnews/4451397 : 發布時間: : 2023/10/07 11:13 : 記者署名: : 原文內容: : 〔財經頻道/綜合報導〕根據《The Information》報導,微軟(Microsoft)可能下個月 : 在其年度開發者大會上,推出首款專為人工智慧 (AI)設計的晶片。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.84.25 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1696686585.A.9F4.html

10/07 21:50, 7月前 , 1F
台積電都說AI只佔6%了 占比拉不高沒啥用
10/07 21:50, 1F

10/07 21:52, 7月前 , 2F
找台積電代工10元晶片賣100元 這生意哪裡不能做
10/07 21:52, 2F
※ 編輯: Lushen (111.249.84.25 臺灣), 10/07/2023 21:55:23

10/07 21:54, 7月前 , 3F
AI就初期而已 是多高占比 6%不是錢 沒啥用 甚麼邏輯
10/07 21:54, 3F

10/07 21:56, 7月前 , 4F
台積電不是說努力在擴充CoWas產能 之後只會更高吧
10/07 21:56, 4F

10/07 22:00, 7月前 , 5F
CoWoS
10/07 22:00, 5F

10/07 22:11, 7月前 , 6F
GG喜歡標準化SOC的單,這種客製化晶片的單量很少
10/07 22:11, 6F

10/07 22:14, 7月前 , 7F
才領先A100的能效比1.9倍,TPU可是ASIC,這樣其實蠻
10/07 22:14, 7F

10/07 22:14, 7月前 , 8F
差的
10/07 22:14, 8F

10/07 22:17, 7月前 , 9F
現在6% 未來10年變幾% 有些人只看了到這一兩年
10/07 22:17, 9F

10/07 22:21, 7月前 , 10F
現在鏟子會貴是因為稀有跟專用,不是因為鏟子真的很
10/07 22:21, 10F

10/07 22:21, 7月前 , 11F
厲害啊
10/07 22:21, 11F

10/07 22:43, 7月前 , 12F
挖不到黃金鏟子就沒用了,看看元宇宙...
10/07 22:43, 12F

10/07 22:49, 7月前 , 13F
ai終究會平價化
10/07 22:49, 13F

10/07 23:56, 7月前 , 14F
我先用強大算力衝了再說,搶時間啊
10/07 23:56, 14F

10/08 00:23, 7月前 , 15F
Ai終究會泡沫化
10/08 00:23, 15F

10/08 00:56, 7月前 , 16F
gpu的設計本來就不是AI。只是有個Cuda方便開發,這
10/08 00:56, 16F

10/08 00:56, 7月前 , 17F
才是NV勝出的原因。不然Intel與AMD都有gpu 啊
10/08 00:56, 17F

10/08 02:18, 7月前 , 18F
去年之前估狗在內部推tpu都推不太起來喇
10/08 02:18, 18F

10/08 02:19, 7月前 , 19F
自研=超封閉環境=跳槽不友善
10/08 02:19, 19F

10/08 02:21, 7月前 , 20F
今年裁員不知道那些AI仔會不會乖一點
10/08 02:21, 20F

10/08 02:22, 7月前 , 21F
然後這時點估狗吹說他tpu多有遠見也沒意義
10/08 02:22, 21F

10/08 02:22, 7月前 , 22F
因為LLM大爆發根本沒啥人預期得到 包含老黃
10/08 02:22, 22F

10/08 02:23, 7月前 , 23F
老黃要是知道 h100就不會只給80G hbm惹
10/08 02:23, 23F

10/08 07:55, 7月前 , 24F
比贏A100有什麼好說嘴的
10/08 07:55, 24F

10/08 08:27, 7月前 , 25F
雀食
10/08 08:27, 25F

10/08 09:44, 7月前 , 26F
某 又來了
10/08 09:44, 26F

10/08 12:04, 7月前 , 27F
所以老黃緊急做了一個gh200出來,不過i皇、蘇嬤針對
10/08 12:04, 27F

10/08 12:04, 7月前 , 28F
性LLM的新架構要等2025了
10/08 12:04, 28F

10/08 13:25, 7月前 , 29F
實驗訓練AI模型,TPU效能比GPU差勁60倍
10/08 13:25, 29F

10/08 16:40, 7月前 , 30F
看人說啥就吸收啥,看看業績才是真的
10/08 16:40, 30F

10/08 22:09, 7月前 , 31F
明年B100就出來了 會有幾G HBM? 美光耀重返榮耀?
10/08 22:09, 31F
文章代碼(AID): #1b8M7vdq (Stock)
討論串 (同標題文章)
文章代碼(AID): #1b8M7vdq (Stock)