作者查詢 / a75468

總覽項目: 發文 | 留言 | 暱稱
作者 a75468 在 PTT [ DataScience ] 看板的留言(推文), 共20則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
同時feed Bert跟TFIDF to Dense layer
[ DataScience ]10 留言, 推噓總分: +4
作者: e9904567 - 發表於 2020/10/27 17:03(5年前)
3Fa75468: Bert 有跟 downstream 一起 finetune 嗎?10/27 21:25
[討論] 關於投稿ICLR那篇BigGAN
[ DataScience ]8 留言, 推噓總分: +2
作者: Activation - 發表於 2018/10/10 23:23(7年前)
1Fa75468: 也不是人人都能爽 train batch size 2048 的 model ...10/11 00:03
6Fa75468: batch size 不變大不就是原本的SAGAN了10/14 16:38
7Fa75468: 他後面那些trick都是基於batch size變大後做的改正10/14 16:38
8Fa75468: 如果batch size沒那麼大做那些trick會發生什麼不好說10/14 16:38
[問題] 有關於VAE實作
[ DataScience ]11 留言, 推噓總分: +4
作者: piyieen - 發表於 2018/05/31 09:24(7年前)
5Fa75468: 中間維度有跟著調整嗎?另外這個架構看起來capacity對於05/31 18:22
6Fa75468: 動漫的dataset來說應該太小了05/31 18:22
[問題] GAN訓練時batch的實作請教
[ DataScience ]10 留言, 推噓總分: +1
作者: PyTorch - 發表於 2018/05/22 19:35(7年前)
1Fa75468: 有謠言是說一個batch裡都放同一種label比較好,所以這個ca05/22 21:09
2Fa75468: se就是兩個batch,128個1以及128個005/22 21:09
[問題] activation='linear'跟沒有加activation
[ DataScience ]4 留言, 推噓總分: +2
作者: Rprogramming - 發表於 2018/04/28 01:07(7年前)
1Fa75468: 就是個乘W而已04/28 01:14
[問題] FPGA加速machine learning?
[ DataScience ]8 留言, 推噓總分: 0
作者: PyTorch - 發表於 2018/04/13 22:39(7年前)
1Fa75468: 用越低階的硬體運算通常越快(可以想成減少更多的overhead04/13 23:19
2Fa75468: ),同理asic通常比fpga快04/13 23:19
Re: [問題] L1與L2正規化的差別
[ DataScience ]7 留言, 推噓總分: +4
作者: abc2090614 - 發表於 2018/04/06 09:13(7年前)
3Fa75468: 推推04/06 14:57
[問題] 強化學習裡的hello world
[ DataScience ]7 留言, 推噓總分: +4
作者: del680202 - 發表於 2018/03/24 07:37(7年前)
1Fa75468: 傳統RL的話可以玩柏克萊的小精靈project03/24 09:28
[情報] DataScience的相關資源置底
[ DataScience ]20 留言, 推噓總分: +12
作者: st1009 - 發表於 2018/03/22 22:06(7年前)
3Fa75468: 唯一支持大金03/24 01:14
[問題] 一個dnn可以同時處理多張影像/資料嗎?
[ DataScience ]30 留言, 推噓總分: +3
作者: subgn - 發表於 2018/03/07 22:13(7年前)
8Fa75468: 假設機器的資源(GPU)是固定的,而且套件把inference最佳03/08 00:15
9Fa75468: 化了,假設某張圖進到第三層,如果要去算另外一張圖的第二03/08 00:19
10Fa75468: 層的話,第一張圖就會卡在第三層等另一張圖(資源固定)03/08 00:19
11Fa75468: 所以理論上直接讓一張圖跑到底是bottleneck比較小的方法(03/08 00:20
12Fa75468: ?) 不過我也不熟tf or pytorch的實作 等大大開示03/08 00:22
首頁
上一頁
1
下一頁
尾頁