作者查詢 / atrix
作者 atrix 在 PTT 全部看板的留言(推文), 共8170則
限定看板:全部
看板排序:
全部PC_Shopping1611car1538MobileComm952Broad_Band554biker511Tech_Job305Storage_Zone284creditcard282DYU237Android178Network166AntiVirus150Notebook136Gossiping98hardware92ChungLi89Bank_Service84WomenTalk83nb-shopping61HardwareSale54NCYU48Boy-Girl43home-sale42MIS36E-appliance34DataScience32Lifeismoney32MobilePay29Salary26MACAU21SENIORHIGH21Aviation20Tainan20ChangHua19Soft_Job19C_Chat17graduate17mobilesales17Chiayi16FixMyHouse16Battery13Headphone13StupidClown11C_and_CPP9Mix_Match9Python9C_Sharp8CarShop8joke8Programming6SuperBike6Beauty5CFP4Free_box4Insurance4NetSecurity4OverClocking4Printer3D4VideoCard4Architecture3forsale3Keelung3NDHU3AskBoard2bicycle2Kaohsiung2Linux2Math2MOD_AP2movie2sex2YOLO2Agriculture1BikerShop1Car-rent1CVS1Doctor-Info1hotspring1Japan_Travel1Key_Mou_Pad1L_TalkandCha1optical1part-time1PhotoCritic1PokemonGO1PublicServan1Stock1SuperJunior1Taipei1<< 收起看板(89)
30F推: 怎麼會拿swift來比?06/01 13:19
15F推: 幫Q39.8.62.131 05/28 17:50
32F→: 一條PCIE延長線不行,不會插兩條嗎?05/26 07:43
15F推: 這是機器學習領域中簡單的預訓練,05/24 19:26
16F→: 一個model可以視為網路模型架構與架構上各節點的參05/24 19:26
17F→: 數,05/24 19:26
18F→: 架構都是一樣的,但參數會越訓練越收斂(無論是好的05/24 19:27
19F→: 收斂還是壞收斂05/24 19:27
20F→: =過度擬合),05/24 19:27
21F→: 網路是一次一次一次訓練出來的,05/24 19:27
22F→: 你可以每次都用一樣的資料訓練參數,05/24 19:27
23F→: 也可以用不一樣的資料,05/24 19:27
24F→: 預先用大範圍資料訓練使得各參數收斂到較準確的範圍05/24 19:27
25F→: (這通常耗掉大部分計算),05/24 19:27
26F→: 然後再用一點資料再訓練一次,05/24 19:27
27F→: 做得好分類就會很準確。05/24 19:27
28F→: 。05/24 19:33
29F→: 例如一個空model訓練兩個男聲,05/24 19:33
30F→: 準確率可能30%,05/24 19:33
31F→: 這時先拿空model用1000種聲音訓練,05/24 19:33
32F→: 再把用1000種訓練過的model節點參數,05/24 19:33
33F→: 再用訓練兩個男聲的資料訓練,05/24 19:33
34F→: 有很高機率大幅提升準確率。05/24 19:33
1F→: 應該沒人知道Configure Driver是指什麼。05/23 17:45
2F→: 你的顯卡有顯示名稱,所以顯卡驅動確定有裝上。05/23 17:50
3F→: 應該沒人知道你的Configure Driver是指什麼。05/23 17:50
1F→: 螢幕排線鬆了?05/17 23:10
23F推: 我也想被貼靠爸標籤05/17 21:44
19F推: 啥鬼推文?9100F都快完勝3代I7了05/17 00:33
21F→: 蔡司,基恩斯05/17 00:28
13F推: 教你老闆用vpn遠端吧05/15 01:03
16F推: 50k的套裝機可能比70k的筆電還強,05/16 11:58
17F→: 剩下就是打給電算中心。05/16 11:58