作者查詢 / oopFoo
作者 oopFoo 在 PTT 全部看板的留言(推文), 共7119則
限定看板:全部
看板排序:
全部PC_Shopping3969home-sale1166Soft_Job1010GameDesign229Stock222Emulator217Steam98C_Chat32nb-shopping31Oversea_Job19Lifeismoney18nCoV201918MobileComm15Tech_Job15HatePolitics10TY_Research7WorkinChina7Military6Printer3D6PlayStation5Gossiping4AI_Art3Old-Games3Test3DigiCurrency2TWSU2Digital_Art1Storage_Zone1<< 收起看板(28)
139F推: Pat怎麼會不知道GPU。併購C&T以及後來的問題,Pat反省很久03/23 22:09
140F→: Larrabee是Pat被趕走前主持的計畫。Raja實在是管理一團亂03/23 22:13
142F→: ARC竟然御三家沒一家出。市場掌握能力也實在太差。03/23 22:17
143F→: David Blythe老實說能力不行。跳到AMD只是給大衛王添麻煩03/23 22:21
159F推: Pat空降回Intel,CPU跟FAB他可以快刀斬亂麻,他熟到不行。03/24 05:59
160F→: GPU部份,原生Intel人才不足,一堆前AMD的人,Raja是挖來03/24 06:00
161F→: 的,矽谷傳奇人物賈伯斯也重用。不給機會嗎?03/24 06:04
162F推: Raja真的爽夠了,多一年半胡搞。Pat最後還是給他一個03/24 06:08
163F→: Architect的位子,夠給面子了。03/24 06:08
164F推: CPU跟FAB,Pat可以去找前Intel的人回來。GPU的人才就真的03/24 06:15
165F→: 必須靠外人。當初Larrabee也是到處挖角,但那時都是挖03/24 06:16
166F→: 年輕人。現在GPU的市場難度太高。當初的作法,現在不行用03/24 06:18
167F→: 而且ARC也快出來了(結果又拖了一年)。如果ARC成果很好?03/24 06:22
168F→: 不就錯殺人才,讓人寒心。如何安撫人心也是個課題。03/24 06:27
169F推: Pat是不可能放棄GPU的,後面AI跟遊戲的運用越來越多,放棄03/24 06:37
170F→: 獨立顯卡就是放棄未來。這是Pat自己講的。03/24 06:38
182F推: 到最後,哪個不是Pat在扛。ARC成功,大家成功。ARC失敗,03/24 08:53
183F→: 還不是Pat要扛,Raja拍拍屁股走路就好。現在BattleMage要03/24 08:54
184F→: 成功的壓力就更大了。Pat的位子穩不穩是壓在製程上,只要03/24 08:55
185F→: 製程出的來,就還有籌碼繼續加碼GPU。03/24 08:56
2F→: Pat是願意給Raja機會的,但Arc上市的過程實在太糟了。驅動03/22 09:50
3F→: 都沒搞好,執行力真的太差了。03/22 09:51
4F→: 去年上半年有一批寫驅動的離職。都已經要上市了,才發現這03/22 09:56
5F→: 些人不行?Raja也未免太不知不覺吧03/22 09:57
14F→: Pat給Raja升官是讓他有更多支援推動GPU,也代表Pat對GPU這03/22 12:15
15F→: 塊的重視。結果證明Raja執行力不行,雖然我們大家早知道了03/22 12:16
16F→: Raja夠本了。除了中國還可能可以去唬弄一下。應該沒地方去03/22 12:18
11F推: 要wx3200? 內顯就夠了,換5600G吧03/21 15:44
63F推: 現在NLP包含深度學習這塊已經被LLMs disrupted。就像201303/20 09:14
64F→: 年時,傳統電腦CV開始被NN取代。現在業界學界全力轉向LLMs03/20 09:16
65F→: 好好重新選擇題目。現在先買3060是個好選擇,跑跑小模型03/20 09:17
66F→: 試試東西,真的需要大量訓練的就花小錢買雲端GPU。過個一03/20 09:18
67F→: 兩年,也可賣掉3060換更適合的顯卡。03/20 09:18
68F→: 最後不需要再賣掉顯卡。顯卡算比較保值。03/20 09:30
16F推: 你確定要花時間與金錢在NLP?LLMs基本上已經摧毀這類的工作03/19 07:45
17F→: 與研發。轉來應用LLMs比較實際吧03/19 07:46
13F→: pc的效能不錯。RPI是10秒一個token,pc是秒內幾個token03/15 20:22
14F→: declarative的程式,LLM比較會處理。只要補餵正確的資料,03/15 20:23
15F→: android/gnu make都可以分析。最近看好多應用都蠻有趣的03/15 20:30
16F→: 當然沒有的功能,問LLM,它會幻想給你,但這是小問題03/15 20:33
32F→: Meta說LLaMA-13B可比GPT3的175B。03/16 15:35
33F→: 目前都是最簡單的CPU優化。剛開始Pixel6需要26秒/token03/16 15:38
34F→: 前幾天已經5token/秒。各家版本飛速進步中。03/16 15:39
35F→: LLMs的"幻想"是內建,目前沒辦法,只能後續查證。03/16 15:40
41F→: chatGPT是通用的chat,但自己的,如Alpaca你可以訓練特化03/18 10:16
42F→: 的instruction tuning。更適合自己的用途。03/18 10:17
43F→: https://github.com/antimatter15/alpaca.cpp03/18 21:56
44F→: windows可以玩,自己編譯7B版,13B版應該很快就來了。03/18 21:57
100F推: MTL最初規劃只有nb,ARL才是主力,當初ARL是GG的3N。後來03/18 19:48
101F→: 就一路變化,現在好像又回到原先的樣子。03/18 19:50
27F推: benchlife的Chris是有內線的,但他有時會誤解細節03/18 08:11
32F→: DT只有refresh,筆電才有14代03/18 09:59
7F→: 記憶需求x2,庫存變100天,機器增加,供不應求。03/18 09:56
8F→: 這ai助手功能使需求大爆發是很有可能的。現在PC的記憶體都03/18 09:58
9F→: 配太少了。03/18 09:58
9F推: build怎麼會用不到小核?越多核越好。03/17 14:28