作者查詢 / min86615
作者 min86615 在 PTT [ DataScience ] 看板的留言(推文), 共41則
限定看板:DataScience
看板排序:
全部Stock851Gossiping189Tech_Job50DataScience41Lifeismoney38Boy-Girl37LoL37SENIORHIGH30Soft_Job30creditcard22Hotel21Japan_Travel21points20WomenTalk16Hsinchu15graduate12Python11CATCH10car7iOS7movie7PC_Shopping7HatePolitics6home-sale6BuyTogether5DC_SALE5HomeTeach5NBA5BigBanciao4forsale3Gemini3Hip-Hop3joke3KoreaStar3C_Chat2MobileComm2nCoV20192RESIT2SET2sex2travel2watch2Aviation1Baseball1Drama-Ticket1Golden-Award1japanavgirls1Kaohsiung1KoreaDrama1L_LifeJob1Lakers1Mix_Match1money1MuscleBeach1nb-shopping1NTU1studyteacher1StupidClown1TaichungBun1Taipei1TuCheng1UTAH-JAZZ1<< 收起看板(62)
1F推: 如果要做style transfer 是合理的,若是分類問題則不建11/13 17:37
2F→: 議,分類因記憶體限制建議使用GN,說明網路上查都有就不11/13 17:37
3F→: 獻醜了11/13 17:37
1F推: 有加watch嗎?10/29 22:53
2F→: 抱歉沒看到10/29 22:57
5F推: 話說你gradient是放在同一層嗎,後面兩行要放在和with同10/29 23:07
6F→: 一層哦10/29 23:07
1F推: 好像很多人2.1版都會有這個問題(非3090的鍋),你降版10/22 23:55
2F→: 試試10/22 23:55
3F→: 啊啊啊抱歉我想問一下 cuda10.1支援3090嗎也可能是CUDA10/23 00:03
4F→: 上的問題10/23 00:03
2F推: 老師陣容堅強幫推10/22 07:20
1F推: 用object detection 去google10/19 17:39
1F推: 可是3的方法應該有一些疑慮,如果給error feedback有點10/10 20:10
2F→: 作弊的感覺,畢竟希望驗證是能部份模擬現實情況,沒看過10/10 20:10
3F→: 資料的狀況下做判斷。而且通常驗證也會割比較少,不如看10/10 20:10
4F→: 驗證出來預測錯誤的地方加上什麼架構可以有效修補。10/10 20:10
3F推: Model的走向是想用最簡單的方式識別出最好的結果,說難08/20 13:14
4F→: 聽就是想當個投機的學生,在前面這個投機的學生只要刷刷08/20 13:14
5F→: 考古就可以讓他拿到7-80分,到後面老師發現這點只要稍微08/20 13:14
6F→: 出的跟考古不一樣學生就漸漸翻車了,所以這個學生到底是08/20 13:14
7F→: 會背考古答案還是真的會解題呢?如果訓練的夠好應該是連08/20 13:14
8F→: 考古的原理都搞懂,而不是只會背答案!08/20 13:14
9F→: 反正就是模型會想辦法用投機方法取得高分,當走離正途模08/20 13:45
10F→: 型就訓練壞了08/20 13:45
2F推: 其實可以認真算算標記這個到底需要多久,有時候可能真的08/08 08:17
3F→: 找不到符合你需求的支援還是得使用工人智慧QQ08/08 08:17
4F→: 而且幾百個把分類定義清楚,先把明顯的大類分出來,再細08/08 08:20
5F→: 劃分小類感覺一個禮拜也夠,不要怕很花時間有時候時間算08/08 08:20
6F→: 出來的比你想像的少,加油08/08 08:20
7F→: 之後只用一般的算法去做分類就可以,但如果你是因為上級08/08 08:21
8F→: 需求要用到NLP我就沒辦法了08/08 08:21
7F推: 這資料量不要用pretrain了07/02 23:59
8F→: 你要pretrain試試看Adam lr調大資料分布不太一樣,lr 太07/03 06:48
9F→: 小影響不大,我是建議不要load pretrain啦07/03 06:48
2F→: 你484在參加比賽06/25 12:33