作者查詢 / EGsux
作者 EGsux 在 PTT [ DataScience ] 看板的留言(推文), 共66則
限定看板:DataScience
看板排序:
全部MACAU213Gossiping80LoL74DataScience66Python58studyabroad54RO50sex45Office42PC_Shopping30AdvEduUK27ClashRoyale24London19OverWatch17BattleRoyale11PUBG11mobile-game10MobileComm8MayDay7Soft_Job7Tech_Job7StarCraft6DigiCurrency4Boy-Girl3ktrolster3Aussiekiwi2Little-Games2PlayStation2streetfight2Android1PokemonGO1squash1StupidClown1YOLO1<< 收起看板(34)
4F推: 二分類裡0 1跟 onehot是一樣的阿04/25 21:45
6F推: softmax本身就算是 activation的一種 只是 activate 最後04/23 22:52
7F→: 的是class 沒有說不可以只是對結果不會有幫助04/23 22:52
15F推: norm 照片會train比較快, 帶去下一層的數值比較不會令 gra04/21 23:12
16F→: dient爆炸04/21 23:12
3F推: 注意看 dimension 沒留言很容易套不進去xd04/20 06:31
1F推: VGG我印象都有加 只是這兩年的paper大家有用 batch norm/gr04/19 04:33
2F→: oup norm的大多都沒在用 dropout了04/19 04:33
4F推: 印象中單純是不加accuracy較好 個人做還是有加啦 你也不04/20 06:29
5F→: 用一個一個model去試 先看一下 這幾年流行的CNN再拿來改04/20 06:29
22F推: 如果800*800會變成416*416 那1600*800 會變成832*416 13*1304/17 07:03
23F→: 變26*13 這樣會不會比較好懂04/17 07:03
1F推: 推一下 沒看過04/06 09:20
1F→: 你都要做seq2seq了 你要不要認真查一下書看一次這些ML DL03/30 12:08
2F→: 基本阿03/30 12:08
2F→: 這要回有點長xd decision boundry不一樣 interpretability03/30 09:42
3F→: 還有 big O complexity 都不同03/30 09:42
4F→: 就算是y=0,1 他們的特性都差很多03/30 09:43
5F→: svm prediction on unseen data 會比較準一點? 因為用 sup03/30 09:44
6F→: port vector的特性 特別是小的dataset?03/30 09:44
7F→: boundry 可不只有 linear non linear, SVM 的SV是指 suppor03/30 09:46
8F→: t vector03/30 09:46
9F推: 還有n>m用SVM也會比較好03/30 09:50
6F→: kaggle強起碼你modeling強阿xd03/29 16:40