作者查詢 / pups003
作者 pups003 在 PTT [ DataScience ] 看板的留言(推文), 共24則
限定看板:DataScience
看板排序:
全部MenTalk4811Gossiping3960WomenTalk418Beauty101DSLR81MAC59Python52Grad-ProbAsk36DC_SALE30DataScience24studyabroad20joke9Boy-Girl8MacShop7Soft_Job7StupidClown7BattleRoyale6PUBG6Tech_Job6HatePolitics3LoL3Salary3UglyClub3car2L_TalkandCha2Taitung2CareerPlan1gay1Gov_owned1Hamster1home-sale1HsinChuang1Hualien1iOS1Kaohsiung1LGBT_SEX1MACAU1Militarylife1MonkeyPox1movie1NCYU_Fst_981NFL1NTHU_Talk1NTU1OverWatch1PC_Shopping1photo1PublicIssue1sex1specialman1Sub_DigiTech1Teacher1TW-language1<< 收起看板(53)
首頁
上一頁
1
下一頁
尾頁
12F→: 應該不是chang說的那樣 論文裡是寫MI maximization02/15 23:39
13F→: 我的理解是,並不是maximizing MI->disentangled02/15 23:39
14F→: 而是用了categorical code02/15 23:42
15F→: MI max一般用在latent跟output上是用來減緩mode collapse02/15 23:43
22F→: 建議去看原論文跟任何framework implementation 會比較清07/24 23:38
23F→: 楚07/24 23:38
1F→: 1. 因為normalization 會使用到整個dataset的statistics,07/13 18:14
2F→: 超出一個batch內的資訊07/13 18:14
3F→: 2. 讀寫有的時候會standardize, 要看文件細節檢查一下07/13 18:16
4F→: Training based on triplet loss 通常需要特別的取樣方07/13 18:19
5F→: 式來避免選到trivial solutions07/13 18:19
1F推: 可以參考on variations bounds of mutual information12/31 23:13
2F→: *variational 自動選字來亂12/31 23:16
5F→: 怎麼可能越來越少人懂內部原理,難道原本懂得後來會不懂03/12 11:34
6F→: ?03/12 11:34
12F→: 1樓確定?02/24 17:33
13F→: 2080ti災情嚴重 慎思@@12/19 12:58
3F→: 你可以寫個生成一些虛擬影像來訓練,這樣就有label了10/31 16:30
1F推: 我的認知是,在二元分類問題,如果輸出層是1維就用sigmoi05/19 12:42
2F→: d, 是2維就用softmax ,但是應該沒有什麼理由要用2維的05/19 12:42
3F→: 輸出(?05/19 12:42
1F→: 自問自答一下05/04 19:49
2F→: 自己定義一個generator,在裡面呼叫keras的ImageDataGene05/04 19:50
3F→: rator就可以了05/04 19:50
首頁
上一頁
1
下一頁
尾頁