作者查詢 / geminitw
作者 geminitw 在 PTT [ DataScience ] 看板的留言(推文), 共21則
限定看板:DataScience
看板排序:
全部Stock1229Gossiping1139HatePolitics568Tech_Job224home-sale183PC_Shopping76SENIORHIGH36Foreign_Inv32DataScience21Military21Hiking16China-Drama15Soft_Job13hardware11Kaohsiung11movie11DigiCurrency10WorkinChina10Examination8ID_Multi7Law-Service7WorldCup7Salary6Beauty5toberich5China_Travel4HardwareSale4CareerPlan2Hsinchu2AskBoard1bicycle1Bioindustry1car1CFP1Coffee1CrossStrait1Immigration1joke1L_TalkandCha1LAW1medstudent1MobileComm1part-time1politics1PublicServan1specialman1Tai-travel1Tainan1unemployed1<< 收起看板(49)
首頁
上一頁
1
下一頁
尾頁
5F推: 有加batch normalization? 減少model complexity10/10 22:11
6F推: Learning rate decay10/10 22:15
35F推: VAE 的 loss 不是 "設計" 出來的吧? 是推導而來的07/02 23:55
36F→: VAE 是在找出 latent variable 的機率分佈, 可以用高斯07/02 23:56
37F→: 也可以用其他的分佈, 也許 text 不適合用高斯07/02 23:57
7F推: 推06/14 20:48
1F推: 不懂原理卻一直coding真的心很累,像baysian NN我就自己06/05 14:08
2F→: 花了一年才算理解。06/05 14:08
3F推: 很好奇CS背景在看PRML variational inference 章節每個06/05 14:14
4F→: 字句都充份理解?我弱我不行。06/05 14:14
5F推: 資工有效MGF?機率分佈也教不多吧?隨機過程也沒碰吧?thre06/03 20:06
6F→: ad process 觀念不難,根本也用不到semaphore mutex,06/03 20:06
7F→: 那都是framework的事情, 重點是你要做模型有洞見06/03 20:06
2F→: 原po 已經有說是看 accuracy. SGD 記得每個 epoch要重新04/05 07:08
3F→: 打散資料, 否則每次batch 的內容都是一樣的.04/05 07:09
4F推: 另外,batchSize 128 vs 64, 那麼Epoch 前者應該要多一些04/05 07:20
8F推: 就是老祖宗說的"以偏概全"呀.04/05 10:02
9F推: 剛剛仔細看了原文,的確有可能是test-error,overfitting.04/05 10:10
16F→: 前幾天有看到hiptensorflow, 支援AMD, 但是剛剛看,整個04/05 07:09
17F→: 在 github 上的專案都不見了?04/05 07:10
27F推: 你有在每個epoch 重新隨機重排你的batch 嗎?04/05 07:07
首頁
上一頁
1
下一頁
尾頁