作者查詢 / oopFoo

總覽項目: 發文 | 留言 | 暱稱
作者 oopFoo 在 PTT 全部看板的留言(推文), 共7119則
限定看板:全部
Re: [情報] Raja將在三月底離開Intel
[ PC_Shopping ]200 留言, 推噓總分: +98
作者: buteo - 發表於 2023/03/23 12:05(2年前)
139FoopFoo: Pat怎麼會不知道GPU。併購C&T以及後來的問題,Pat反省很久03/23 22:09
140FoopFoo: Larrabee是Pat被趕走前主持的計畫。Raja實在是管理一團亂03/23 22:13
142FoopFoo: ARC竟然御三家沒一家出。市場掌握能力也實在太差。03/23 22:17
143FoopFoo: David Blythe老實說能力不行。跳到AMD只是給大衛王添麻煩03/23 22:21
159FoopFoo: Pat空降回Intel,CPU跟FAB他可以快刀斬亂麻,他熟到不行。03/24 05:59
160FoopFoo: GPU部份,原生Intel人才不足,一堆前AMD的人,Raja是挖來03/24 06:00
161FoopFoo: 的,矽谷傳奇人物賈伯斯也重用。不給機會嗎?03/24 06:04
162FoopFoo: Raja真的爽夠了,多一年半胡搞。Pat最後還是給他一個03/24 06:08
163FoopFoo: Architect的位子,夠給面子了。03/24 06:08
164FoopFoo: CPU跟FAB,Pat可以去找前Intel的人回來。GPU的人才就真的03/24 06:15
165FoopFoo: 必須靠外人。當初Larrabee也是到處挖角,但那時都是挖03/24 06:16
166FoopFoo: 年輕人。現在GPU的市場難度太高。當初的作法,現在不行用03/24 06:18
167FoopFoo: 而且ARC也快出來了(結果又拖了一年)。如果ARC成果很好?03/24 06:22
168FoopFoo: 不就錯殺人才,讓人寒心。如何安撫人心也是個課題。03/24 06:27
169FoopFoo: Pat是不可能放棄GPU的,後面AI跟遊戲的運用越來越多,放棄03/24 06:37
170FoopFoo: 獨立顯卡就是放棄未來。這是Pat自己講的。03/24 06:38
182FoopFoo: 到最後,哪個不是Pat在扛。ARC成功,大家成功。ARC失敗,03/24 08:53
183FoopFoo: 還不是Pat要扛,Raja拍拍屁股走路就好。現在BattleMage要03/24 08:54
184FoopFoo: 成功的壓力就更大了。Pat的位子穩不穩是壓在製程上,只要03/24 08:55
185FoopFoo: 製程出的來,就還有籌碼繼續加碼GPU。03/24 08:56
Re: [情報] Raja將在三月底離開Intel
[ PC_Shopping ]38 留言, 推噓總分: +10
作者: oopFoo - 發表於 2023/03/22 09:13(2年前)
2FoopFoo: Pat是願意給Raja機會的,但Arc上市的過程實在太糟了。驅動03/22 09:50
3FoopFoo: 都沒搞好,執行力真的太差了。03/22 09:51
4FoopFoo: 去年上半年有一批寫驅動的離職。都已經要上市了,才發現這03/22 09:56
5FoopFoo: 些人不行?Raja也未免太不知不覺吧03/22 09:57
14FoopFoo: Pat給Raja升官是讓他有更多支援推動GPU,也代表Pat對GPU這03/22 12:15
15FoopFoo: 塊的重視。結果證明Raja執行力不行,雖然我們大家早知道了03/22 12:16
16FoopFoo: Raja夠本了。除了中國還可能可以去唬弄一下。應該沒地方去03/22 12:18
[菜單] 20K內輕度繪圖機
[ PC_Shopping ]24 留言, 推噓總分: +6
作者: pictureeft - 發表於 2023/03/21 13:10(2年前)
11FoopFoo: 要wx3200? 內顯就夠了,換5600G吧03/21 15:44
Re: [請益] 顯示卡3060 12g 跑深度學習 問題請益
[ PC_Shopping ]80 留言, 推噓總分: +21
作者: pfii1997119 - 發表於 2023/03/19 21:49(2年前)
63FoopFoo: 現在NLP包含深度學習這塊已經被LLMs disrupted。就像201303/20 09:14
64FoopFoo: 年時,傳統電腦CV開始被NN取代。現在業界學界全力轉向LLMs03/20 09:16
65FoopFoo: 好好重新選擇題目。現在先買3060是個好選擇,跑跑小模型03/20 09:17
66FoopFoo: 試試東西,真的需要大量訓練的就花小錢買雲端GPU。過個一03/20 09:18
67FoopFoo: 兩年,也可賣掉3060換更適合的顯卡。03/20 09:18
68FoopFoo: 最後不需要再賣掉顯卡。顯卡算比較保值。03/20 09:30
[請益] 顯示卡3060 12g相關問題請益
[ PC_Shopping ]61 留言, 推噓總分: +16
作者: pfii1997119 - 發表於 2023/03/19 01:48(2年前)
16FoopFoo: 你確定要花時間與金錢在NLP?LLMs基本上已經摧毀這類的工作03/19 07:45
17FoopFoo: 與研發。轉來應用LLMs比較實際吧03/19 07:46
[討論] LLM即將像Stable Diffusion普及
[ Soft_Job ]44 留言, 推噓總分: +11
作者: oopFoo - 發表於 2023/03/15 12:56(2年前)
13FoopFoo: pc的效能不錯。RPI是10秒一個token,pc是秒內幾個token03/15 20:22
14FoopFoo: declarative的程式,LLM比較會處理。只要補餵正確的資料,03/15 20:23
15FoopFoo: android/gnu make都可以分析。最近看好多應用都蠻有趣的03/15 20:30
16FoopFoo: 當然沒有的功能,問LLM,它會幻想給你,但這是小問題03/15 20:33
32FoopFoo: Meta說LLaMA-13B可比GPT3的175B。03/16 15:35
33FoopFoo: 目前都是最簡單的CPU優化。剛開始Pixel6需要26秒/token03/16 15:38
34FoopFoo: 前幾天已經5token/秒。各家版本飛速進步中。03/16 15:39
35FoopFoo: LLMs的"幻想"是內建,目前沒辦法,只能後續查證。03/16 15:40
41FoopFoo: chatGPT是通用的chat,但自己的,如Alpaca你可以訓練特化03/18 10:16
42FoopFoo: 的instruction tuning。更適合自己的用途。03/18 10:17
43FoopFoo: https://github.com/antimatter15/alpaca.cpp03/18 21:56
44FoopFoo: windows可以玩,自己編譯7B版,13B版應該很快就來了。03/18 21:57
[情報] 明年INTEL確定換腳位
[ PC_Shopping ]125 留言, 推噓總分: +42
作者: rook18ies - 發表於 2023/03/18 12:41(2年前)
100FoopFoo: MTL最初規劃只有nb,ARL才是主力,當初ARL是GG的3N。後來03/18 19:48
101FoopFoo: 就一路變化,現在好像又回到原先的樣子。03/18 19:50
[情報] Arrow Lake-S 平台回歸 2024 年將會推出已刪文
[ PC_Shopping ]43 留言, 推噓總分: +21
作者: ultra120 - 發表於 2023/03/18 00:12(2年前)
27FoopFoo: benchlife的Chris是有內線的,但他有時會誤解細節03/18 08:11
32FoopFoo: DT只有refresh,筆電才有14代03/18 09:59
[閒聊] 組裝Chat-LLaMA主機的規格
[ PC_Shopping ]10 留言, 推噓總分: +3
作者: oopFoo - 發表於 2023/03/17 13:35(2年前)
7FoopFoo: 記憶需求x2,庫存變100天,機器增加,供不應求。03/18 09:56
8FoopFoo: 這ai助手功能使需求大爆發是很有可能的。現在PC的記憶體都03/18 09:58
9FoopFoo: 配太少了。03/18 09:58
[菜單] 40k程式機
[ PC_Shopping ]33 留言, 推噓總分: +9
作者: aaaa7582 - 發表於 2023/03/17 14:14(2年前)
9FoopFoo: build怎麼會用不到小核?越多核越好。03/17 14:28