Re: [標的] NVDA/AMD 討論 多哪隻

看板Stock作者 (嘴砲無雙)時間3周前 (2024/05/19 13:22), 3周前編輯推噓41(5918107)
留言184則, 63人參與, 3周前最新討論串14/15 (看更多)
週末閒聊, 搜尋一下發現這篇討論可以回朔到兩年前, https://www.ptt.cc/bbs/Stock/M.1661733364.A.DA6.html 當時我猜到AMD會把Intel給打趴吃下伺服器市場, 卻沒看到NVDA 在這兩年的爆發力更加驚人, AMD兩年股價三倍, NVDA 卻是兩年股價六倍, 我輸了 我對個股預測常常不夠準, 常常是猜到頭卻猜不到結尾, 所以還是建議投資大盤指數ETF 比較簡單 當然也要大方承認, 由於受到本人專業領域的限制, 我只能看到與預測到跟我專業相關的部分, 我不是做AI 算法的, 也不做LLM, 最多就只是做擦邊球去使用LLM, 我的職業生涯一直都是做CPU, AI 晶片與軟體系統, 所以我能精準預測CPU 與軟體系統 市場的變化, 但是我卻錯估了AI 算法在這兩年的突破與對算力的需求, 我真的是對AI算法不熟 回到主題, 兩年過後的現在, 伺服器市場幾乎確定以後會是ARM的天下, 甚至之後的AI device, AI edge 都會是ARM的天下, 以我的專業來看 這趨勢是非常確定的, 所以我不看好 AMD, Intel, X86, 如果是現在給我選擇, 我會覺得NVDA 比 AMD 有前景 當然這是就只有NVDA AMD兩個選擇的情況下, 如果我可以做其他的選擇, 我覺得AI 系統正在快速普及, 很快的幾乎每個人都能夠隨身一台AI device, 所以說AI 軟體應用與軟體系統會很快的普及, AI edge 的需求也會很快的飆高, 所以我個人在這時間點選擇的話, 我會選擇GOOG MSFT 為最佳投資選擇, 如果是硬體與AI dege 的部分是ARM, QCOM, 聯發科, 包牌是TSM QQQ TQQQ, ARM的問題是股價炒太高, 目前太貴, 但是前景很看好 至於蘋果, 我之前還是很看好蘋果在AI硬體上面的競爭力, 但是就像LDPC 說的, 蘋果還在搞記憶體飢渴行銷, 以及一些自我封閉 自砍功能的飢渴行銷方式, 還有繼續封閉的平台, 這在AI 硬體與軟體發展的路上只會越走越遠 ※ 引述《LDPC (Channel Coding)》之銘言: : 人類離變成電池之日越來越近了QQ : 這邊是一個openai的demo整理 : https://youtu.be/VP2-8jIurUE?si=BlFPm94-752XEkF0
: 稍微細拆一下上面的demo一些隱藏意義 誠如之前所說的2023 Text-Based GPT4出現後 : 業界就直接看到戰場要往多模態拚殺 多模態意思就是餵給這些LLM模型從文字理解世界 : 進化到 把影像聲音轉成文字意涵 在餵食給LLM去理解 大概到去年年中 大家影像刷完 : 就開始刷聲音多模態 (當然 LeCun很反對把多模態用文字當anchor來理解世界) : 到此為止 多模態大概已經刷得差不多 也就是LLM可以透過各類型資料理解世界 : 多模態資料有 : 聲音: 可以透過聲音知道你情緒 理解你是大人或小孩 : 比方說:你如果問LLM 這世界有聖誕老人嗎 LLM聽到你聲音 : 會叫你 滾 你這死肥宅 如果聽到是可愛蘿莉 就會說 是的 世界是有聖誕老人唷! : 這些是傳統聲音轉文字(ASR)再給Text-LLM辦不到的 : 其餘多模態資料諸如 : 影像: 理解圖片 : 生醫: 心跳 血壓 呼吸 : 金融: 各種時間序列資料 : 溫度 熱成像 : 這些都會以文字為anchor (text token)去餵給LLM : 那接下來 下個問題 多模態LLM 最佳落地場景為何?->答案是 手機 : 因為手機是最好的攜帶裝置 可以去理解世界 手機上所有數據都是多模態 : 就連GPS/WiFi 你如果需要 也可以當作多模態資訊丟給LLM : 第二個最佳落地場景是 AR眼鏡 這也解釋為何前幾天Google IO : 在替Project Astra鋪路 而事實上多模態LLM其實最適合AR眼鏡 : 因為 "所見所聽既所知" : 戴上眼鏡後 下棋 炒股 把妹 打撞球算角度 全知全能 : 而多模態LLM其實就是扮演虛擬助手 幫助人類處理現實世界資訊和情報 : 這也是為何我覺得果家明明有機會可以打一場漂亮戰 但因為果家的記憶體飢餓行銷 : 注定Gemini-Nano (3B模型) 無法放到iphone (4~6GB) 注定只能走雲端 : 雲端多模態LLM之王就是openai了 至於為何有人會質疑on-device (<3B)以下模型為何有開發 : 必要性?都用雲端就好了 答案就是因為有很多模態資料有私密性 不方便上雲端跑 : 目前針對這類投資就是AMD/NVDA/MU/QCOM MU原因來自多模態吃記憶體 需要HBM這類設計 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1716096142.A.650.html

05/19 13:24, 3周前 , 1F
怎不選ARM
05/19 13:24, 1F

05/19 13:24, 3周前 , 2F
尼用估狗角度看會覺得arm server很強
05/19 13:24, 2F

05/19 13:24, 3周前 , 3F
因為估狗cloud很廢 所以只看得到自己用arm
05/19 13:24, 3F

05/19 13:25, 3周前 , 4F
尼用azure aws的角度看就覺得算惹
05/19 13:25, 4F

05/19 13:30, 3周前 , 5F
INTC跟x86又双叒n被掃進歷史的垃圾堆
05/19 13:30, 5F

05/19 13:32, 3周前 , 6F
兩年後蘇媽在server cpu最大的問題反而會是牙膏身上
05/19 13:32, 6F

05/19 13:32, 3周前 , 7F
沒多少肉吃惹 現在大約3b vs 1.5~2b
05/19 13:32, 7F

05/19 13:33, 3周前 , 8F
arm server有很多問題 第一幾乎鎖死cloud
05/19 13:33, 8F

05/19 13:33, 3周前 , 9F
第二核心更新必須等arm本家
05/19 13:33, 9F

05/19 13:33, 3周前 , 10F
...難以想像啊...X86的年代有一天會結束?
05/19 13:33, 10F

05/19 13:34, 3周前 , 11F
第三所有arm server cpu都自製先進封裝經驗不足
05/19 13:34, 11F

05/19 13:35, 3周前 , 12F
直接買arm
05/19 13:35, 12F

05/19 13:37, 3周前 , 13F
amd
05/19 13:37, 13F

05/19 13:41, 3周前 , 14F
其實你整個估錯,只有結論是nv勝是對的XD
05/19 13:41, 14F

05/19 13:41, 3周前 , 15F
你這偏文很明顯是外行人....kk
05/19 13:41, 15F

05/19 13:43, 3周前 , 16F
A啾鈴結論是世界G翁嗎
05/19 13:43, 16F

05/19 13:46, 3周前 , 17F
供三小….
05/19 13:46, 17F

05/19 13:47, 3周前 , 18F
廢話連篇 以前AMD就開發過arm
05/19 13:47, 18F

05/19 13:48, 3周前 , 19F
你看我不是跟你縮惹嗎不爽歸不爽 啊還不是得用XD
05/19 13:48, 19F

05/19 13:48, 3周前 , 20F
我看你不是很懂 乖乖聽教主的
05/19 13:48, 20F

05/19 13:49, 3周前 , 21F
現在大廠們應該是更不爽百倍 但也還是得用….
05/19 13:49, 21F

05/19 13:49, 3周前 , 22F
要問我的話 兩年後如果蘇媽在ai沒對老黃造成威脅
05/19 13:49, 22F

05/19 13:50, 3周前 , 23F
那就不用管惹 他這輩子就這樣惹
05/19 13:50, 23F

05/19 13:50, 3周前 , 24F
蘇媽ai以外的東西擴張空間有限 最多pc cpu
05/19 13:50, 24F

05/19 13:51, 3周前 , 25F
我感謝你是打著娘胎樂透在美國工作,也佩服努力工作
05/19 13:51, 25F

05/19 13:51, 3周前 , 26F
問題是這塊牙膏就是虧錢也要死守
05/19 13:51, 26F

05/19 13:51, 3周前 , 27F
arm要對x86 cpu造成威脅 五年後再來討論
05/19 13:51, 27F

05/19 13:52, 3周前 , 28F
我是覺得沒有可能
05/19 13:52, 28F

05/19 13:52, 3周前 , 29F
應該說pc
05/19 13:52, 29F
我沒有說pc 市場, 我說的是伺服器與AI device 市場, 幾乎已經確定是ARM的天下, x86 只能吃剩下毛利率低的pc 市場

05/19 13:52, 3周前 , 30F
我不是努力工作的強者,也信你實誠,但這點聽A0*9的
05/19 13:52, 30F

05/19 13:52, 3周前 , 31F
pc這塊目前只有低階chrome book跟高階消費級阿婆MBA
05/19 13:52, 31F

05/19 13:53, 3周前 , 32F
gaming pc 跟商用 對不起沒機會
05/19 13:53, 32F

05/19 13:53, 3周前 , 33F

05/19 13:54, 3周前 , 34F
目前AI真的需要GPU處理,3D辨識GPU有80%處理,
05/19 13:54, 34F

05/19 13:54, 3周前 , 35F
M軟一直在找方法壓制阿婆高階消費級 問題是他不肯
05/19 13:54, 35F

05/19 13:54, 3周前 , 36F
承認問題在自己身上
05/19 13:54, 36F

05/19 13:55, 3周前 , 37F
在3D或某些先進領域,CPU只能處理20%,堆CPU無法的
05/19 13:55, 37F
不, 我說的就是GPU NPU, 在AI edge device的部分, ARM跟QCOM 都有自己的GPU NPU, 甚至ARM 自己的mali GPU 是全世界生產量最多的GPU, 雖然毛利極低, ARM, QCOM, 甚至是聯發科在 AI edge device這塊是有能力做的, AI edge device 這塊的重點在平台的系統軟體, 也就是Android, iOS, ChromeOS 等對AI軟體開發與執行的支援程度
還有 108 則推文
還有 6 段內文
05/19 17:53, 3周前 , 146F
感謝wait大大分享 推一個
05/19 17:53, 146F

05/19 17:58, 3周前 , 147F
AMD
05/19 17:58, 147F

05/19 18:09, 3周前 , 148F
結論未來一兩年要買啥?
05/19 18:09, 148F

05/19 18:45, 3周前 , 149F
看推文結論M軟+NV+APPL 這樣可以嗎?
05/19 18:45, 149F

05/19 19:04, 3周前 , 150F
可是apple今年大陸市場還會持續摔退
05/19 19:04, 150F

05/19 19:49, 3周前 , 151F
教主比較厲害~這個w大根本就是大外行XD
05/19 19:49, 151F

05/19 19:56, 3周前 , 152F
教主好
05/19 19:56, 152F

05/19 20:07, 3周前 , 153F
有擂臺賽可以看嗎?(X
05/19 20:07, 153F

05/19 20:09, 3周前 , 154F
找有高速傳輸介面研發的公司
05/19 20:09, 154F

05/19 20:09, 3周前 , 155F
譜瑞 算嗎
05/19 20:09, 155F

05/19 20:10, 3周前 , 156F
微軟市值第一了,本益比會下修
05/19 20:10, 156F

05/19 20:19, 3周前 , 157F
QCOM+1票
05/19 20:19, 157F

05/19 21:27, 3周前 , 158F
看法角度不同而已 說人外行自己出來發一篇試看看
05/19 21:27, 158F

05/19 21:33, 3周前 , 159F
W大是巷子內的…
05/19 21:33, 159F

05/19 21:55, 3周前 , 160F
巷子不巷子不代表啥好嗎 我在巷子裡快20年惹
05/19 21:55, 160F

05/19 21:55, 3周前 , 161F
同事一堆謬論也聽20年惹
05/19 21:55, 161F

05/19 21:56, 3周前 , 162F
拍謝~~~挖出這麼久以前的文章 承讓承讓 XDDDD
05/19 21:56, 162F

05/19 21:56, 3周前 , 163F
彥州自己都加碼NVDL 惹~~~~ 顆顆
05/19 21:56, 163F

05/19 21:57, 3周前 , 164F
阿北自己就有說過有AMD員工 5元左右就賣光
05/19 21:57, 164F

05/19 21:58, 3周前 , 165F
老黃也有一堆員工砍在一百塊左右
05/19 21:58, 165F

05/19 22:11, 3周前 , 166F
arm server是未來?平行世界捏 看到的都只是想嘗試
05/19 22:11, 166F

05/19 22:11, 3周前 , 167F
這樣就未來 那uLED也是
05/19 22:11, 167F

05/19 23:46, 3周前 , 168F
那你要看四年前這篇唬爛的嗎#1VEKJUfx (Stock)
05/19 23:46, 168F

05/20 00:21, 3周前 , 169F
ARM server就只是想要自幹省錢 但授權其實也不便宜
05/20 00:21, 169F

05/20 00:22, 3周前 , 170F
AMD本來買Xlinx就是要讓產品組合更豐富
05/20 00:22, 170F

05/20 00:22, 3周前 , 171F
但現在反而都是拚GPU 哪天改成FPGA也能發力就還能賺
05/20 00:22, 171F

05/20 00:26, 3周前 , 172F
看到ARM Server就知道你是外行
05/20 00:26, 172F

05/20 00:42, 3周前 , 173F
感謝原po和推文
05/20 00:42, 173F

05/20 00:55, 3周前 , 174F
你看好Arm的論述有夠失敗,只有信念成分而已。
05/20 00:55, 174F

05/20 01:06, 3周前 , 175F

05/20 01:07, 3周前 , 176F
Worldwide Server Market Forecast 2023 - 2025 Va
05/20 01:07, 176F

05/20 01:07, 3周前 , 177F
lue (US$M)
05/20 01:07, 177F

05/20 01:11, 3周前 , 178F
近兩年伺服器非x86的Market Share 你可以超譯成未
05/20 01:11, 178F

05/20 01:11, 3周前 , 179F
來是Arm Sever的天下?沒數據就別瞎掰了。
05/20 01:11, 179F

05/20 01:49, 3周前 , 180F
牆頭草就是說這種吧 當下風往哪邊吹就往哪邊倒 :)
05/20 01:49, 180F
※ 編輯: waitrop (76.103.225.6 美國), 05/20/2024 02:34:42 ※ 編輯: waitrop (76.103.225.6 美國), 05/20/2024 03:20:51

05/20 03:23, 3周前 , 181F
結論: 買NVDA就對了 或是NVDL
05/20 03:23, 181F

05/20 09:00, 3周前 , 182F
感謝討論
05/20 09:00, 182F

05/20 09:05, 3周前 , 183F
買msft 呢?他也有AI,還有核電廠
05/20 09:05, 183F

05/20 10:31, 3周前 , 184F
05/20 10:31, 184F
文章代碼(AID): #1cIOoEPG (Stock)
討論串 (同標題文章)
文章代碼(AID): #1cIOoEPG (Stock)