作者查詢 / moodoa3583
作者 moodoa3583 在 PTT [ Python ] 看板的留言(推文), 共145則
限定看板:Python
看板排序:
全部NBA159Python145Gossiping85Boy-Girl81movie74WOW69joke65WomenTalk58marvel57nb-shopping57sex46NBAJerseys31StupidClown28Web_Design24FITNESS21MuscleBeach21SMSlife21Hsinchu18Beauty12DataScience12PttLifeLaw9AllTogether7Baseball6NBA_Film6book5Soft_Job5BLAZERS4CareerPlan4Aviation3C_Chat3Math3PokeMon3Salary3Stock3Tobacco3Basket_5vs52DC_SALE2HarukiMuraka2mknoheya2NBA_Fantasy2Olympics_ISG2street_style2Tech_Job2Test2BabyMother1CartoonNet1DSLR1graduate1hikarugo1job1NTU1PublicServan1Sheena1shoes1Storage_Zone1tattoo_ring1TOEFL_iBT1YOLO1<< 收起看板(58)
1F推: .dropna()04/24 19:18
2F推: 噢噢我看到你在迴圈內有dropna了04/24 19:20
4F推: 整欄/列都會刪掉,看你axis是0還是1,整條row刪除後in04/24 21:18
5F→: dex自然也會消失04/24 21:18
4F推: 既然都用Counter了怎麼不取most_commons就好,題目說04/24 00:27
5F→: 只會有一個解04/24 00:27
34F→: 噢對,如果各位有興趣知道的話,2000到2020年最多球員03/05 22:49
35F→: 受傷的部位是膝蓋,然後依次是腳踝,背部,腳掌,腿後03/05 22:49
36F→: 肌(hamstring )03/05 22:49
7F推: 如果validation loss的圖沒有畫錯的話,應該是會跟val02/24 19:20
8F→: idation accuracy 衝突的?02/24 19:20
14F推: 宣告有if_prime 這個變數,之後才能用這個變數來做判02/20 00:51
15F→: 斷02/20 00:51
3F推: pip install sqlite3 試試看,如果說已經存在那就先02/06 01:17
4F→: pip uninstall sqlite3 再install一次02/06 01:17
7F推: 聽起來就是設排程讓電腦每隔一段時間就爬一次01/29 23:17
2F推: 如果最後是二元分辨(True/False, 0/1),那loss比起用'11/16 00:54
3F→: categorical_crossentropy',也許用'binary_crossentro11/16 00:54
4F→: py'會更適合一些11/16 00:54
5F推: 然後也許沒有使用one hot encoding 的必要,抑或是我11/16 00:59
6F→: 誤會你說的二元分類的意思了?11/16 00:59
7F推: 此外像其他板友提過的,可以在第二層加上dropout,最11/16 01:05
8F→: 後的activation 從softmax換成sigmoid,以及在fit那邊11/16 01:05
9F→: 加上validation_split=0.2取兩成的train data當val. d11/16 01:05
10F→: ata,以此來觀察模型是否缺乏/過度訓練11/16 01:05
21F推: 如b大所說,如果是under fitting 那就增加層數節點試11/16 16:50
22F→: 試看,或是最直觀的增加epochs11/16 16:50
23F推: 噢我剛剛看到你的epochs已經30了,那就朝向增加層數和11/16 17:44
24F→: 每層增加unit這個方向先試試看吧11/16 17:44
11F→: 如果可以,Sigmoid換Relu試試看?11/11 10:53
13F推: 得要先確定模型現在是overfitting還是underfitting,11/11 11:22
14F→: 如果是前者,用樓上的dropout的確有幫助11/11 11:22
31F推: 準確度得要把validation data的準確度加進來一起看,11/13 13:03
32F→: 最初步的判斷如果training data和validation data準11/13 13:03
33F→: 確率都還在提升,那model可能under fitting,但如果tr11/13 13:03
34F→: aining data的準確度一直提升,validation data的準11/13 13:04
35F→: 確度開始下降,可能就是出現了over fitting11/13 13:04
39F推: data的筆數有多少筆啊,如果足夠大去除outliers 的確11/15 01:13
40F→: 是個方法,如果可能的話有辦法貼出你現在的模型,以及11/15 01:13
41F→: train/validation data的acc.嗎?11/15 01:13
42F→: 另外batch和epochs 有嘗試調整過嗎?最後就是每份資料11/15 01:13
43F→: 都還是有準確度的上限的,你的這份資料平均預測的準確11/15 01:14
44F→: 度是多少呢?11/15 01:14
9F推: 只看描述似乎就是11/11 10:51
10F→: print(a[3] -a[2]) 嗎?11/11 10:51