作者查詢 / wang19980531
作者 wang19980531 在 PTT [ DataScience ] 看板的留言(推文), 共45則
限定看板:DataScience
看板排序:
全部Guardians9377HatePolitics6942BaseballXXXX5743Baseball3975Gossiping1342iOS454ToS250XXXXballpark216CVS178joke161TaichungBun147ClashRoyale143Chiayi122Olympics_ISG114nCoV201990graduate86DigiCurrency78MAC74Stock74ask69ChungLi68Japandrama65Kaohsiung61Steam53PokeMon52DataScience45TaiwanDrama44movie37MobileComm27Lifeismoney25Python21Beauty19kartrider17Soft_Job17C_Chat16KR_Entertain15mobile-game15gay12PingTung12Grad-ProbAsk11Monkeys8CourtBasebal5L_TaiwanPlaz5SP2_Baseball5TurtleSoup5Boy-Girl4Eng-Class4NCYU4TW-language4CTS3FITNESS3Teacher3Tech_Job3ToS_Match3WomenTalk3CSSE2fastfood2Militarylife2StockPicket2AskBoard1CrossStrait1Gemini1GongYoo1Hate1L_TalkandCha1MH1NBA1NSwitch1Railway1StupidClown1TSG-Hawks1<< 收起看板(71)
2F推: 要implementation嗎 學生基礎如何01/14 16:52
2F推: 下一篇 data size是64*64*3 input neurons是 32*301/11 09:57
3F→: 2*3 是不是就不能做了呢01/11 09:57
3F推: soft clustering03/20 23:24
4F→: autograd 的機制 但你也可以自己寫backward就是02/25 09:53
5F→: 像之前EfficientNet在吵memory usage02/25 09:55
6F→: 就是backward要重寫 原本sigmoid activate會存起來02/25 09:55
6F推: 有值無值是明確定義的規則的話 不用DL09/10 21:40
3F→: 像是TensorFlow嗎? 這樣為什麼大家還用PyTorch07/19 22:47
20F→: 10樓說的對吧 batch愈大愈接近整個dataset的dist07/23 14:15
21F→: ribution07/23 14:15
6F→: 謝謝,可以再解釋一下trivial solutions的部分嗎07/14 14:46
7F→: ?07/14 14:46
2F推: attention+107/01 16:51
9F推: Faiss07/01 16:53
20F推: 推樓上 分批讀取處理完資料後 就用其他檔案格式分06/25 17:20
21F→: 檔存起來06/25 17:20
22F→: 同時補充np.dot觸發segmentation fault時也要bat06/25 17:21
23F→: ch來做06/25 17:21