作者查詢 / tsoahans
作者 tsoahans 在 PTT [ DataScience ] 看板的留言(推文), 共72則
限定看板:DataScience
看板排序:
全部C_Chat458MapleStory176Vtuber111Math101FAIRYTAIL83Python77DataScience72Little-Games69Gossiping67KanColle63Hunter50Grad-ProbAsk46C_and_CPP39graduate29KHCHS_TALK23Physics20SENIORHIGH18NSYSU17MiHoYo16Nurarihyon15ONE_PIECE14joke13MA12Minecraft12DragonQuest9NTU9Suckcomic9HatePolitics8PokeMon7junji-ITO6kugimiya6Lifeismoney6LightNovel6Programming6Soft_Job6NARUTO5BioHazard4Hayate4Marginalman4Shana4BLEACH3Evangelion3LoveLive_Sip3paranormal3Precure3PttEarnMoney3PttHistory3AC_In2Android2Chemistry2Falcom2Google2GTA2OriginalSong2Plant2TORIKO2AC_Music1ask1BBSmovie1C_BOO1CCSH_86_3121CMWang1Eng-Class1GUNDAM1HitmanReborn1Isayama1japanavgirls1Japandrama1kawaii1kenichi1KHCHS-93-3091KS98-3021KSHS_Talk1LinuxDev1mobile-game1NCCU08_Ethno1NCHUS1Niconico1SRW1TFSHS66th3071TigerBlue1TKU_EE_92C1Violation1<< 收起看板(83)
10F推: max底下的值是同一個filter和不同資料區段運算得到的值10/18 15:26
11F→: 所以不管是a1 a2 a3實際上都是update同一個filter10/18 15:27
12F→: (假設max pool是接在convolution後面)10/18 15:28
16F推: loading完可以用numpy/pandas存成pickle/npy 下次讀取會06/17 12:24
17F→: 比較快06/17 12:24
18F→: 另外就是可以做一些資料處理 將無用特徵/樣本移除 再存06/17 12:25
19F→: 成檔案 下次讀取就可以讀比較少的資料06/17 12:25
10F推: 1.可能會影響可能不會 hard example mining或focal loss02/28 10:31
11F→: 就是用來解決這問題 正常的樣本有些很好分有些很難分02/28 10:32
12F推: 你要看看你的模型在三種角度下,分類的正確率有沒有差異02/28 10:34
13F→: 如果某個角度的狗分類正確率特別差,那再考慮變更權重02/28 10:36
1F推: 一般常講的異常檢測指的是非監督式的異常檢測,就是說訓02/21 15:54
2F→: 練的時候假設所有訓練資料都是正常的樣本,用正常資料建02/21 15:56
3F→: 立模型02/21 15:56
4F→: 而不平衡資料則是屬於一般的監督式學習02/21 15:57
5F→: 差別就是在於有沒有label02/21 15:58
6F推: 如果你是問沒有label要如何計算效能,測試的時候其實還02/22 14:01
7F→: 是需要有label來驗證演算法的效能02/22 14:01
8F→: 大部分論文的做法都是根據label挑選出正常樣本集合的一02/22 14:02
9F→: 部分當作訓練集,在拿剩下的當作測試02/22 14:02
10F推: 是這樣沒錯02/23 18:53
4F→: 直接去掉OOV的詞也是一種作法 另外就是用char-level處理01/11 13:01
12F→: 你這板子不是只能插amd的cpu嗎?12/19 09:57
27F→: one-hot我還是會做標準化 因為他不一定是zero mean unit09/11 16:50
28F→: variance 這可能會有影響09/11 16:50
29F→: 但應該不會差太多就是了09/11 16:51
2F推: 懶人包(? https://i.imgur.com/2djX9c5.png08/29 15:31
3F→: 詳細 https://tinyurl.com/yc2opk7h08/29 15:33
3F推: MIT跪了08/20 10:41
15F推: 李老師這學期的MLDS前面三章都講理論可以看看06/13 11:03
16F→: http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS1806/13 11:04
25F→: cs231的作業也蠻推薦的 寫完大概就能自己實做出DL框架06/14 16:08
26F推: 吳尚鴻的數學講得比較深入 他連最佳化、PAC、NFL都有講06/14 16:19
29F→: 我講的是PAC learning06/15 04:23
30F→: 這是探討model的Generalization能力的一個理論,主要探06/15 04:27
31F→: 討在data分布未知的情況下,倒底需要sample多少資料才能06/15 04:28
32F→: 保證expected loss和empirical loss有很大的機率誤差在06/15 04:29
33F→: 抹個範圍內。這個理論主要是在1980年代發展的,主要貢獻06/15 04:30
34F→: 者Leslie Valiant因此理論獲得Turing Award06/15 04:32
35F→: 後面的VC Theory也是在PAC的框架下繼續發展06/15 04:32
36F→: PAC全名是probably approximately correct06/15 04:34
47F→: 是08/02 17:59