作者查詢 / wang19980531
作者 wang19980531 在 PTT [ DataScience ] 看板的留言(推文), 共37則
限定看板:DataScience
看板排序:
全部HatePolitics6760Guardians5395BaseballXXXX3060Baseball2787Gossiping1176iOS438ToS250XXXXballpark216CVS176joke154TaichungBun147ClashRoyale143Chiayi122Olympics_ISG112nCoV201990graduate86DigiCurrency78MAC73ask69ChungLi67Japandrama65Kaohsiung61Steam48TaiwanDrama44DataScience37movie37MobileComm27Lifeismoney25Python21kartrider17Soft_Job13Stock13Beauty12gay12PingTung12Grad-ProbAsk11mobile-game10Monkeys8CourtBasebal5L_TaiwanPlaz5SP2_Baseball5TurtleSoup5Boy-Girl4C_Chat4Eng-Class4NCYU4TW-language4FITNESS3PokeMon3Teacher3Tech_Job3ToS_Match3WomenTalk3CSSE2AskBoard1CrossStrait1fastfood1Gemini1GongYoo1Hate1L_TalkandCha1MH1Militarylife1NBA1Railway1StupidClown1TSG-Hawks1<< 收起看板(67)
2F推: 要implementation嗎 學生基礎如何01/14 16:52
2F推: 下一篇 data size是64*64*3 input neurons是 32*301/11 09:57
3F→: 2*3 是不是就不能做了呢01/11 09:57
3F推: soft clustering03/20 23:24
4F→: autograd 的機制 但你也可以自己寫backward就是02/25 09:53
5F→: 像之前EfficientNet在吵memory usage02/25 09:55
6F→: 就是backward要重寫 原本sigmoid activate會存起來02/25 09:55
6F推: 有值無值是明確定義的規則的話 不用DL09/10 21:40
3F→: 像是TensorFlow嗎? 這樣為什麼大家還用PyTorch07/19 22:47
6F→: 謝謝,可以再解釋一下trivial solutions的部分嗎07/14 14:46
7F→: ?07/14 14:46
1F→: 模型也不會學習到壞的圖片,所以仍是非監督式學習06/01 10:07
9F推: 李的課只能摸到皮毛而已 除非有好好做實作04/19 17:56
10F→: 最好的學習方式真的是 嗑完這本聖經(原文) 近幾年04/19 17:56
11F→: 的技術看paper04/19 17:56
12F→: 你會發現原本看不懂的paper 怎麼看怎麼懂04/19 17:56
1F推: 張數03/23 07:34
2F→: large scale data= large amount of data03/23 07:35