作者查詢 / clansoda
作者 clansoda 在 PTT 全部看板的留言(推文), 共1144則
限定看板:全部
看板排序:
21F→: OK 感謝各位的回覆 我在研究一下各位提186.107.195.153 11/25 16:33
22F→: 來改進一下我的單子186.107.195.153 11/25 16:33
30F→: 選這顆是因為這顆有type-c 我現在大部分186.107.209.58 11/26 03:26
31F→: 裝置都是type-c 所以希望前面板有186.107.209.58 11/26 03:27
6F→: 感謝各位回覆,確實可以研究這件事03/22 22:23
7F→: yoyo大,我這個是原始圖片,進去前會resize成800 * 80003/22 22:23
8F→: 想請問一下,我自己測試後發現我一開始讀取alexnet會吃03/22 23:17
9F→: 約1.4GB的記憶體,我模擬5 x 3 x 224 x 224的資料約佔03/22 23:18
10F→: 不到1MB的記憶體,我開啟no_grad之後跑model(inputs)03/22 23:18
11F→: 記憶體仍會從1414上升到1540,也就是上升了126MB的記憶03/22 23:19
12F→: 體用量,根據我的理解記憶體的使用量理論上應該是weight03/22 23:20
13F→: 加上gradients加上中間計算的hidden embedding size03/22 23:20
14F→: 前面weight已經計算過了,gradients我也先關掉了03/22 23:20
15F→: 難道剩下的記憶體就是中間計算層所占用的?03/22 23:21
16F→: 根據實驗,這個記憶體的佔用會隨著batch size上升而上升03/22 23:21
17F→: 請問有人知道這個記憶體的使用是來自哪裡呢?03/22 23:21
2F→: 抱歉 在這裡把我使用的code補上12/08 07:48
3F→: https://reurl.cc/q8ek2y12/08 07:48
4F→: 資料的部分使用的是2012年的imagenet train跟val都是12/08 07:49
7F→: y大,好的 我這兩天找時間試試看12/10 22:47
8F→: m大,訓練資料應該是沒錯,過程的話我完全仿照demo上的12/10 22:47
10F→: 請問baby大,如何確定有正確算到呢? loss這個物件是一個10/30 22:02
11F→: tensor,裏頭是一個實數的scalar,應該算是有正確算到吧10/30 22:02
12F→: min大,後面兩行有放在同一個縮排了10/30 22:03
13F→: acc大,我有print過model.trainable_varaibles10/30 22:04
14F→: 裏頭確實是有一個長度為10的list,元素都是tensor10/30 22:04
15F→: qwe大,請問什麼是多縮排呢?10/30 22:05
17F→: 我只能周一再貼圖了,code在公司電腦10/30 23:57
18F→: 我目前應該是前兩行在with下 而後兩行在外面的縮排10/30 23:57
27F→: 我自己回自己一下,如同nj大所說 這邊的問題就是函數11/07 08:48
28F→: 我使用的cross entropy是來自於tensorflow.keras.metric11/07 08:49
29F→: 實際上要使用tensorflow.keras.lossess同一名字的函數11/07 08:49
30F→: 他才會正確的追蹤梯度,但實際上你完全可以print出11/07 08:49
31F→: 正確的loss,導致很難理解為什麼沒辦法回傳梯度11/07 08:50
32F→: 這點跟pytorch不太一樣,pytorch沒有metrics跟loss之分11/07 08:50
33F→: watch的話,我自己看得tutorial是沒有加上去的11/07 08:51
34F→: 但我自己寫的code我有補上,這點再請其他人補充11/07 08:51
2F→: wt大,我使用的是ranger optimizer lr=1e-410/04 20:10
3F→: 我的想法是如果學習率太大,他是不是應該早點崩掉10/04 20:11
4F→: 而不是已經走了10幾個epochs才壞掉呢?10/04 20:11
3F→: 感謝w大,我後面的cross entropy是簡寫而已,感謝回覆10/01 09:35
5F→: 感謝g大,我會順著這個關鍵字去找找看有沒有其他論文10/04 15:11
1F→: 我自己更新一下自己的文章,答案是後面有兩個HDMI07/27 17:56
3F→: 其中一個才支援,另外一個不支援,得插對才支援07/27 17:56
4F→: 感謝Fuzy大回答,我自己找到答案了07/27 17:57
2F→: 請問網孔的功能是增加散熱嗎?05/29 09:27
3F→: 第二個問題是某屋看起來好像沒有這個選項呢05/29 09:28
7F→: j大有任何推薦的嗎? 我沒買過額外的散熱器05/29 09:41
8F→: 我找到藝人店有,這個機殼我蠻有興趣的 他有typeC05/29 09:42
13F→: o大 我挑的是wifi版本沒錯 我複製的時候貼錯了05/29 10:17
16F→: 請問我這個往下挑到550W的power會有問題嗎05/29 15:44
4F→: 了解了,對我來說算是一個新理解03/01 01:51
3F→: 應該說狗是其中一類label但是狗的訓練圖片又有三種方向02/28 09:14
4F→: 但是我們的結果不需要知道是正面狗 右側的狗或左側的狗02/28 09:14
5F→: 只需要知道是狗就好了,那這三種角度的狗的圖片比例不是02/28 09:15
6F→: 1:1:1的話 對於結果會有負面的影響嗎02/28 09:15
7F→: 感謝第二點的回答,第三點我知道為什麼了,我忘記加02/28 09:15
8F→: optimizer.zero_grad了 導致前面的gradient一直累積到02/28 09:16
9F→: 後面了02/28 09:16
14F→: 感謝樓上的分享,我會查一下hard example mining02/28 11:13
15F→: focal loss我在retinanet裡面看過,我會稍微研究一下02/28 11:14
19F→: 好的,我會在接下來的實驗上,特地測試稀少的類別02/29 16:07
20F→: 感謝您的回答02/29 16:07