[問題] RNN無法收斂已刪文

看板DataScience作者 (小笨)時間4年前 (2019/08/04 01:12), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串1/1
我目前在練習使用RNN來做各種NLP的應用,目前是使用bidirectional LSTM來做 sentiment analysis,雖然使用的是最基本的架構,但是我發現模型不會收斂 我的架構是先有一個embedding layer來將text轉成embedding然後feed進一個 兩層的bidirectional LSTM再將最後一個time series的output抽出來feed進 一個兩層的forward NN然後產生prediction 使用的是Adam lr = 0.00001 mini_bacth_size = 128 我想過是不是因為我將left_to_right跟right_to_left的兩個sequence串起來 所以才沒辦法收斂,我用了paper裡面的方法將兩個向量加起來也不行。 我也試過 把lr調小一點也不行,也試過forward NN只用一層也不行,也試過只用left_to_right 的LSTM也不行,想請問如果用layer normalization會比較好嗎 我還沒試的原因是因為網路上的應用並沒有用到normalization就會收斂了 我將我的data與code放在下面 希望有經驗與有時間的前輩能給我一些建議 data https://bit.ly/2T2rm9Q code https://bit.ly/31juGQH -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 108.12.53.156 (美國) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1564852345.A.C1C.html
文章代碼(AID): #1THS1vmS (DataScience)