作者查詢 / bulc381
作者 bulc381 在 PTT [ DataScience ] 看板的留言(推文), 共25則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
1F推: hs.view(num_layers, 2, batch, hidden_size)[-1]07/27 16:05
2F→: 拿出來就會是forward的最後一個state + backward第一個07/27 16:05
3F→: output.view(length, batch, 2, hidden_dim)[-1, :, 0,:]07/27 16:06
4F→: output.view(length, batch, 2, hidden_dim)[0, :, 1,:]07/27 16:06
5F→: 等於上面這兩個的concatenation07/27 16:06
6F→: 文件在outputs的那個段落有提到該怎麼reshape:07/27 16:07
7F→: https://pytorch.org/docs/stable/nn.html#torch.nn.LSTM07/27 16:07
8F→: torchtext的話可能可以爬爬看OpenNMT的code或是直接用?07/27 16:09
9F→: 我記得OpenNMT前陣子好像有refactor過data的部分 應該可07/27 16:12
10F→: 以當作參考07/27 16:12
4F推: twitter, reddit, 大研究機構很多有自己的blog可以掃一遍06/17 22:28
5F→: medium上面也不少東西可以挖06/17 22:30
3F推: 沒有下載到submodule吧 到github把dmlc-core抓下來06/08 16:01
4F→: 或是git clone --recurse-submodules06/08 16:05
4F推: 是logP沒錯 就是Monte Carlo06/07 21:19
5F→: 剛好今天VAE作者傳了一篇Introduction to VAE上arXiv 也06/07 21:24
6F→: 可以來回對照看看 https://arxiv.org/abs/1906.0269106/07 21:24
7F→: 對 其實就是常常看paper會看到有一步推導 會把期望值變成06/07 23:31
8F→: = 1/N Σ(...) 這樣的作法,只是這邊簡單取N=106/07 23:32
9F推: 我還沒仔細看那篇introduction,但看起來第三章有提到你06/07 23:41
10F→: 上面講的:為什麼要用Gaussian06/07 23:42
11F→: 還有要怎麼放寬讓它也可以是非Gaussian06/07 23:42
13F推: m = Model(model1.inputs, model1.layers[3].output)05/04 01:45
14F→: y = m.predict(X_train) 沒必要用到backend function05/04 01:46
15F→: trainX05/04 01:46
首頁
上一頁
1
下一頁
尾頁