作者查詢 / krusnoopy
作者 krusnoopy 在 PTT [ DataScience ] 看板的留言(推文), 共9則
限定看板:DataScience
看板排序:
全部Baseball6952Gossiping2979HatePolitics787Hearthstone476Grad-ProbAsk444HBL283graduate222Badminton196LoL165home-sale78NBA67Soft_Job46BattleRoyale32biker22basketballTW21StarCraft21AHQ20Ahqwestdoor20marriage19Tech_Job18GraduateCram13PC_Shopping13Kaohsiung10DataScience9FlashWolves8BabyMother7AfterPhD6Military6L_TalkandCha5PhD5Beauty4NTU4NTUcourse4sex4Stock4Boy-Girl3joke3Python3tabletennis3WOW3Foreign_Inv2IA2TOEIC2YOLO2Anti-Cancer1AOE1BLAZERS1C_Chat1ClashRoyale1Elephants1Option1PublicIssue1studyteacher1TaichungBun1Teacher1TOEFL_iBT1Trans-nctu1Web_Design1Yunlin1<< 收起看板(59)
首頁
上一頁
1
下一頁
尾頁
1F推: 要搭配training time一起下去看 他意思是batch 1003/25 13:27
2F→: 只要train 很少的時間 就可以達到跟SGD差不多的acc.03/25 13:27
3F→: 後面因為size變大 矩陣的運算較久 就不能花很少的時間03/25 13:28
4F→: 就達到跟SGD差不多的效果03/25 13:28
5F→: 總結來說 batch size變大 你train很久的話 acc.還是03/25 13:29
6F→: 可以達到一定水準 不是只單純說batch變大 準確率變低03/25 13:29
7F推: 前面為什麼batch 10比SGD好的原因是: 如果算10個點的03/25 13:37
8F→: gradient跟算1個點的gradient差不多快 那10一定比1好03/25 13:37
3F推: 沒什麼問題 差在SVD分解的eigenvector差負號沒關係06/06 04:55
首頁
上一頁
1
下一頁
尾頁