作者查詢 / EGsux
作者 EGsux 在 PTT [ DataScience ] 看板的留言(推文), 共66則
限定看板:DataScience
看板排序:
全部MACAU213Gossiping80LoL74DataScience66Python58studyabroad54RO50sex45Office42PC_Shopping30AdvEduUK27ClashRoyale24London19OverWatch17BattleRoyale11PUBG11mobile-game10MobileComm8MayDay7Soft_Job7Tech_Job7StarCraft6DigiCurrency4Boy-Girl3ktrolster3Aussiekiwi2Little-Games2PlayStation2streetfight2Android1PokemonGO1squash1StupidClown1YOLO1<< 收起看板(34)
10F推: deeplearning.ai 不錯09/20 12:13
8F推: 不同的狗這項目應該有人做過 網上說不定有數據集 應該是比01/08 11:15
9F→: 較簡單的01/08 11:15
2F推: 能說一下你的lable 跟dataset嗎?11/10 12:29
12F推: https://github.com/SkalskiP/ILearnDeepLearning.py/tre11/10 15:51
13F→: e/master/01_mysteries_of_neural_networks/03_numpy_neu11/10 15:51
14F→: ral_net11/10 15:51
1F推: 為啥要用RNN 你的東西LR也做的到吧,然後方向錯了,data10/26 00:01
2F→: 要再處理10/26 00:01
14F推: one shot learning?10/13 18:38
4F推: batch loss 不代表比較強,你看後面的 validation loss10/04 19:58
5F→: accuracy 才對10/04 19:58
19F推: 第一題 你學的統計是對的 一模一樣的東西 統計學過都能用09/10 10:32
20F→: 來ML不用怕09/10 10:32
21F推: 第二點要看變數跟 Y的關係09/10 10:35
22F→: 數據本來就0跟1也不用做標準化 如果覺得 one hot 維度過多09/10 10:37
23F→: 就 dimensionality reduction09/10 10:37
6F推: 剛好我在寫RL的論文寫完也來發一篇好了09/04 05:24
2F推: 推樓上 stopwords就是你要的05/24 19:18
6F推: dropout就是做一個mask在你的W上面 rand(size(W)) > p(drop04/29 01:14
7F→: out)04/29 01:14
8F→: 所以你做到三四位影響不大 10%變10.34%那種04/29 01:15