作者查詢 / AmibaGelos

總覽項目: 發文 | 留言 | 暱稱
作者 AmibaGelos 在 PTT [ DataScience ] 看板的留言(推文), 共20則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
Re: [問題] 統計與資工在資料科學的差異
[ DataScience ]31 留言, 推噓總分: +27
作者: allen1985 - 發表於 2020/06/14 11:57(4年前)
12FAmibaGelos: 推推 好奇問1M的case可以改用transfer learning嗎?06/15 11:38
14FAmibaGelos: 也是 是偶耍蠢惹lol 用GP至少知道每個點都被utilize06/15 16:14
15FAmibaGelos: w/o bias 不像transfer learning還得有個前置問題06/15 16:14
Re: [問題] 統計與資工在資料科學的差異
[ DataScience ]22 留言, 推噓總分: +19
作者: dryman - 發表於 2020/06/14 10:26(4年前)
10FAmibaGelos: 媽媽問我為什麼跪著用電腦06/15 11:35
Re: [問題] 統計與資工在資料科學的差異
[ DataScience ]36 留言, 推噓總分: +12
作者: fsuhcikt1003 - 發表於 2020/06/05 13:32(4年前)
26FAmibaGelos: 推s大 實現比較重要 原理推導自己try不會太浪費時間06/06 15:16
27FAmibaGelos: 不要像偶自以為coding還行浪費1年優化自刻的mcmc orz06/06 15:16
[問題] 大型(高記憶體)網路訓練
[ DataScience ]12 留言, 推噓總分: +4
作者: kaltu - 發表於 2018/11/03 20:35(5年前)
5FAmibaGelos: slice共用網路的話是類似 但這樣slice間沒有做conv哦11/04 00:12
6FAmibaGelos: 好奇3d image有多大 128*128*128*64ch*4B就0.5G了orz11/04 00:12
[問題] batchsize 怎麼調?
[ DataScience ]12 留言, 推噓總分: 0
作者: lunashining - 發表於 2018/05/01 01:35(6年前)
8FAmibaGelos: BN雖然好用但BP時所有FP資料都得要存在同一個GPU上05/01 14:40
9FAmibaGelos: 模型太大的話根本做不到,GN可以讓模型大小繼續變大的05/01 14:42
10FAmibaGelos: 同時繼續享受BN帶來的好處 batch大小其實跟BN彼此可以05/01 14:42
11FAmibaGelos: 互相獨立的,可以開1024的batch拆成8組丟到8顆GPU上各05/01 14:43
12FAmibaGelos: 自做BN05/01 14:43
[問題] 請問CNN網路的dropout問題
[ DataScience ]7 留言, 推噓總分: +4
作者: Rprogramming - 發表於 2018/04/19 02:38(6年前)
3FAmibaGelos: 最後一次bn/gn後面幾層可加(通常是fc) 但效果可忽略04/19 07:44
6FAmibaGelos: dropout隨機砍會讓bn無法正規化性能下降 最近有篇有04/20 07:32
7FAmibaGelos: 解但相較於純bn只是補回損失 建議先觀望後續發展04/20 07:32
Re: [問題] L1與L2正規化的差別
[ DataScience ]9 留言, 推噓總分: +6
作者: bibo9901 - 發表於 2018/04/12 07:18(6年前)
4FAmibaGelos: 大推! 從input來看扣掉需要非0 filter的features 其04/13 12:52
5FAmibaGelos: 它dof是在學noise 用L2的話noise只是rescale 用L1的04/13 12:52
6FAmibaGelos: 話就是把scattering<regularization strength的砍掉04/13 12:52
[問題] L1與L2正規化的差別
[ DataScience ]29 留言, 推噓總分: +8
作者: bokxko1023 - 發表於 2018/04/05 15:44(6年前)
2FAmibaGelos: L2指數衰減,w不會歸0.L1則是定量減少,斜率不夠就會歸004/05 17:50
首頁
上一頁
1
下一頁
尾頁