作者查詢 / LDPC
作者 LDPC 在 PTT 全部看板的留言(推文), 共7562則
限定看板:全部
看板排序:
112F→: 大部分都是Disney+那邊會變成主要裁員對象03/28 13:56
113F→: D+注定無法打贏netflix 自家ip太燒錢03/28 13:56
8F→: 大大 不瞞你說 我在灣區每天盼望者八方快來這開門市03/20 14:10
12F→: QQ 他來開門市 我一定買爆它 這邊有家無版權美而美03/20 14:11
14F→: 都被我們買爆了 QQ03/20 14:11
25F→: 老巴是鯊魚 最喜歡這種時候趁機敲詐...0rz03/19 13:09
4F→: 大大救我 抄底石油股和USB金融股 滿手血 嗚嗚嗚嗚03/19 12:35
125F→: 之前推微軟 有人不是才在說微軟是老人股嗎03/19 03:22
154F→: 吐槽微軟的完全不懂AI生產工具時代來臨了...03/19 11:47
155F→: Software as a Service vs. AI as a Service03/19 11:47
143F→: https://www.youtube.com/watch?v=CFCnT6pe1L803/14 13:09
27F→: 咦 灣區Toyota Markup只有兩千?我上月每家都5k+03/01 12:25
28F→: stevens crook那條街上的dealer都不能信啊03/01 12:26
36F→: 我從原本mini countryman plugin看到rav4 plugin03/01 13:55
37F→: 到最後買了cx5..慘 我現在超想念我之前330i 一點都03/01 13:55
38F→: 不fun.....嗚嗚嗚03/01 13:55
52F→: 樓主除非收入低於15萬美金 不然7500我們都是拿不到03/02 00:56
60F→: 灣區dealer很嗆是真的 現在網路推薦dealer是南加03/02 01:01
61F→: 又或者sacramento 我之前真的認真考慮殺到LA去買車03/02 01:01
1F→: 有很多是假的abc 選我正解76.103.163.64 03/01 12:33
14F→: 是的 這波加州下雪了QQ 北加只要山上都有雪02/27 09:46
6F→: NVDA多少佈局 再者現在大家都是拿open source code02/23 12:56
10F→: 在研究環境裡 複製實驗的話當然挑跟別人一樣環境啊02/23 12:56
13F→: 光是許多train出來model在不同環境 隨機性都會差很02/23 12:57
14F→: 整個AI社群搭起來後 當然是站在巨人肩膀上啊02/23 12:58
16F→: 通常在下游任務才會去客製化搭自家硬體02/23 12:59
17F→: 在上游算法驗證階段 N社環境解決很多問題 甚至02/23 12:59
18F→: 你在複製實驗時 上面都會註明環境設定 甚至02/23 13:00
19F→: 連random seed都幫你標好 為了就是讓實驗有可複製性02/23 13:00
22F→: 如果你換一套硬體 一堆backward update 根本無從檢02/23 13:01
23F→: 檢查gradient隨機性 這時候你效能就真的是隨機02/23 13:01
24F→: 更別說這波老黃從Argo/Toyota 那邊吃了不少個人才02/23 13:03
26F→: chatgpt只是生產工具一個象徵 其他還有diffusion02/23 13:04
28F→: 最近nvda還吃到語音套件去了 老黃就是在AI賣好用02/23 13:05
29F→: 鏟子 你要用自己開發的鏟子去開發龐大模型 還考慮02/23 13:05
34F→: 實驗複製性 效能對標 我覺得從現實角度不太可能02/23 13:06
38F→: 你模型train完之後 deploy model到客制硬體是可以的02/23 13:08
39F→: 但你現在拿一個自己開發框架 然後你照paper刻一樣02/23 13:09
40F→: 架構 然後你會花一堆時間在調整epoch/batch/lr02/23 13:09
41F→: 甚至random seed 因為你硬體環境都不同了 前人給你02/23 13:10
42F→: 的參考config都不在可用 那你等於是花一堆時間去02/23 13:10
43F→: 重調參數 甚至光是optmizer(adam/sgd)這些討論串02/23 13:11
47F→: 你都要重新來過 幹嘛不站在巨人肩膀上 用成熟環境02/23 13:11
48F→: 上面言論就跟 只要有無限金錢我也可以開一家台積店02/23 13:12
51F→: bert和gpt3是不同的 chatgpt是來架在gpt3框架上02/23 13:14
54F→: google bert最大問題不是架構 是在於data的累積02/23 13:15
58F→: openAI搜集的data數據量已經有好幾年 海放google02/23 13:16
73F→: inference就是下游model deployment 這是另外一個環02/23 13:20
75F→: 你甚至都不需要gpu 你可以用隨意硬體計算機 你要的02/23 13:20
77F→: 只是model裡面所有權重分佈而已02/23 13:21