作者查詢 / Mchord
作者 Mchord 在 PTT [ DataScience ] 看板的留言(推文), 共85則
限定看板:DataScience
看板排序:
全部Gossiping755PathofExile459DIABLO354Hearthstone267C_Chat255PokeMon118PuzzleDragon112Tech_Job102LoL92NTHU-MSE1288DataScience85Python76MH74Soft_Job73CrossGate63PushDoll56NSwitch51Test46NBA44Steam37AnimalForest35Stock35travian34ClashRoyale26graduate24Minecraft24PttEarnMoney21VR18NTHU-MSE1315PlayStation15PC_Shopping14GameDesign12C_and_CPP11eSports11RealPlaying11SuperIdol11PSP-PSV10home-sale9StarCraft9Modchip8RO_Mobile7guitar6Taoyuan6joke5Boy-Girl4movie4Powerful_PRO4SENIORHIGH4StrikeShoot4AllTogether3DigitalMusic3HatePolitics3mobile-game3MobileComm3ONE_PIECE3RO3WomenTalk3AI_Art2BlizzHeroes2car2CarShop2cksh84th3102DigiCurrency2Examination2Golden-Award2HomeTeach2Hunter2MATLAB2Shadowverse2TuTsau2AirForce1Beauty1Education1FITNESS1Garena1Gov_owned1Hate1Hsinchu1HSNU_11421Insurance1L_TalkandCha1Lakers1lineageW1Little-Games1Lottery1media-chaos1Military1MKSH-95-61NARUTO1NTHU-MSE141sex1SmashBros1TaiwanDrama1Teacher1TFSHS69th3141TOEIC1ToS1<< 收起看板(97)
6F→: Convolution本身就不可能scale invariant, 都是拿model ca08/02 08:27
7F→: pacity去換來的08/02 08:27
9F→: 中文的話推薦知乎看paper review,機器之心看新消息03/26 22:13
2F→: 經驗法則03/26 22:12
18F→: gpu的ram影響的不是速度吧…時脈跟cuda core數才是01/24 07:26
19F→: gpu ram主要影響可以用的model大小,包含input尺寸以及bat01/24 07:29
20F→: ch size。01/24 07:29
21F→: 跑不動頂多跳OOM就是了,不會壞掉。01/24 07:32
24F→: 原po不是在問跑不跑得動嗎?訓練速度也不是batch大就一定01/24 23:58
25F→: 最快,所需update次數少跟整體訓練時間是不一樣的意義。01/24 23:58
21F→: 根據ssd的random crop規則,每個被切到的東西都不能被切01/24 07:36
22F→: 掉太多,否則不採用,再重新切過。01/24 07:36
1F→: 你的敘述很亂,不太容易理解,如果你是說data augmentatio11/29 21:49
2F→: n後標記出現雜點那是不該發生的11/29 21:49
3F→: 2G也只能跑入門範例吧,確定要做的話顯卡錢是最不能省的11/29 21:46
1F→: 3D data還是做2D convolution的話,也只有第一層跟輸出層11/03 22:02
2F→: 參數量有影響11/03 22:02
1F→: 感覺這種做法會產生很強的bias,搞不好的東西更加搞不好11/02 22:09
32F→: 如果你真想要增加偽標籤,用這三者產出soft-label可能還安11/03 19:41
33F→: 全一點11/03 19:41
2F→: 確認過training狀況了嗎, training loss curve要優先學會11/01 23:27