作者查詢 / geminitw

總覽項目: 發文 | 留言 | 暱稱
作者 geminitw 在 PTT [ DataScience ] 看板的留言(推文), 共21則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
[討論] 發現模型開始過擬合,開發者能做什麼
[ DataScience ]13 留言, 推噓總分: +4
作者: wang19980531 - 發表於 2020/10/10 19:57(5年前)
5Fgeminitw: 有加batch normalization? 減少model complexity10/10 22:11
6Fgeminitw: Learning rate decay10/10 22:15
[問題] VAE在text generation的問題
[ DataScience ]43 留言, 推噓總分: +11
作者: somoskylin - 發表於 2020/07/01 01:13(5年前)
35Fgeminitw: VAE 的 loss 不是 "設計" 出來的吧? 是推導而來的07/02 23:55
36Fgeminitw: VAE 是在找出 latent variable 的機率分佈, 可以用高斯07/02 23:56
37Fgeminitw: 也可以用其他的分佈, 也許 text 不適合用高斯07/02 23:57
Re: [問題] 統計與資工在資料科學的差異
[ DataScience ]31 留言, 推噓總分: +27
作者: allen1985 - 發表於 2020/06/14 11:57(5年前)
7Fgeminitw: 推06/14 20:48
Re: [問題] 統計與資工在資料科學的差異
[ DataScience ]36 留言, 推噓總分: +12
作者: fsuhcikt1003 - 發表於 2020/06/05 13:32(5年前)
1Fgeminitw: 不懂原理卻一直coding真的心很累,像baysian NN我就自己06/05 14:08
2Fgeminitw: 花了一年才算理解。06/05 14:08
3Fgeminitw: 很好奇CS背景在看PRML variational inference 章節每個06/05 14:14
4Fgeminitw: 字句都充份理解?我弱我不行。06/05 14:14
[問題] 統計與資工在資料科學的差異
[ DataScience ]22 留言, 推噓總分: +6
作者: ctr1 - 發表於 2020/06/01 16:58(5年前)
5Fgeminitw: 資工有效MGF?機率分佈也教不多吧?隨機過程也沒碰吧?thre06/03 20:06
6Fgeminitw: ad process 觀念不難,根本也用不到semaphore mutex,06/03 20:06
7Fgeminitw: 那都是framework的事情, 重點是你要做模型有洞見06/03 20:06
Re: [問題] 請教關於Stochastic gradient descent
[ DataScience ]14 留言, 推噓總分: +8
作者: championship - 發表於 2018/04/04 06:30(7年前)
2Fgeminitw: 原po 已經有說是看 accuracy. SGD 記得每個 epoch要重新04/05 07:08
3Fgeminitw: 打散資料, 否則每次batch 的內容都是一樣的.04/05 07:09
4Fgeminitw: 另外,batchSize 128 vs 64, 那麼Epoch 前者應該要多一些04/05 07:20
8Fgeminitw: 就是老祖宗說的"以偏概全"呀.04/05 10:02
9Fgeminitw: 剛剛仔細看了原文,的確有可能是test-error,overfitting.04/05 10:10
[問題] 深度學習 硬體需求
[ DataScience ]24 留言, 推噓總分: +8
作者: Aiuddy - 發表於 2018/04/04 21:12(7年前)
16Fgeminitw: 前幾天有看到hiptensorflow, 支援AMD, 但是剛剛看,整個04/05 07:09
17Fgeminitw: 在 github 上的專案都不見了?04/05 07:10
[問題] 請教關於Stochastic gradient descent
[ DataScience ]28 留言, 推噓總分: +16
作者: Bondrewd - 發表於 2018/04/03 23:54(7年前)
27Fgeminitw: 你有在每個epoch 重新隨機重排你的batch 嗎?04/05 07:07
首頁
上一頁
1
下一頁
尾頁