作者查詢 / jackwang01
作者 jackwang01 在 PTT [ Python ] 看板的留言(推文), 共95則
限定看板:Python
看板排序:
全部C_Chat167LoL123Python95Gossiping60DataScience57PathofExile55CFantasy49Hearthstone45BlackDesert26Soft_Job20Steam17Stock12Beauty8graduate8joke7J-PopStation5MapleStory5PCReDive5PokeMon4PokemonGO3sex3Tech_Job3HatePolitics2mobile-game2movie2NSwitch2NTU2Rent_tao2ToS2AfterPhD1cat1Drama-Ticket1NTUcourse1Sangokumusou1specialman1StupidClown1Tainan1WorldCup1WOW1YOLO1<< 收起看板(40)
5F推: 在啟動網站的時候就先載入11/19 01:15
1F→: pandas fillna? 照片網址看不到10/15 22:20
1F→: 一。pop是dict 不能用list的index寫法09/22 02:21
2F→: 不太懂你的變成5大小是指什麼?09/22 02:22
3F→: 然後for I in range他的i會自動加,不用再額外加一了09/22 02:23
4F→: 如果你是希望存每個人不同的性別生日資訊09/22 12:46
5F→: 可以試試看直接拿姓名當key09/22 12:46
6F→: 例如 { A: {性別:, 生日:}, B: {性別:, 生日:}…}09/22 12:48
7F→: 不然如果你想用list就是 [{…},{…},…]這樣09/22 12:50
8F→: 抱歉第二個問題還是不太懂XD 意思是在a檔案中先算好一09/22 12:54
9F→: 些變數再給b檔案用嗎?那如果執行b檔案的時候再去算這09/22 12:54
10F→: 些值會有什麼問題嗎?09/22 12:54
2F→: 你的y是有csv副檔名的,if y in fcolumn1可能找不到東09/22 01:47
3F→: 西?09/22 01:47
6F→: 把y改成column1應該就行了? 不知道你想做的是不是這09/22 02:19
7F→: 樣09/22 02:19
1F→: 一。pop是dict 不能用list的index寫法09/22 02:21
2F→: 不太懂你的變成5大小是指什麼?09/22 02:22
3F→: 然後for I in range他的i會自動加,不用再額外加一了09/22 02:23
4F→: 如果你是希望存每個人不同的性別生日資訊09/22 12:46
5F→: 可以試試看直接拿姓名當key09/22 12:46
6F→: 例如 { A: {性別:, 生日:}, B: {性別:, 生日:}…}09/22 12:48
7F→: 不然如果你想用list就是 [{…},{…},…]這樣09/22 12:50
8F→: 抱歉第二個問題還是不太懂XD 意思是在a檔案中先算好一09/22 12:54
9F→: 些變數再給b檔案用嗎?那如果執行b檔案的時候再去算這09/22 12:54
10F→: 些值會有什麼問題嗎?09/22 12:54
2F→: 你的y是有csv副檔名的,if y in fcolumn1可能找不到東09/22 01:47
3F→: 西?09/22 01:47
6F→: 把y改成column1應該就行了? 不知道你想做的是不是這09/22 02:19
7F→: 樣09/22 02:19
5F→: 先看你有沒有任何ML相關的知識吧,再來要看這些資料09/14 19:13
6F→: 有沒有label,也就是有沒有標註哪段時間是被攻擊之類09/14 19:13
8F→: 有label的話就簡單多了 先從基本的logistic regressio09/14 22:33
9F→: n, svm, random forest試試吧,把資料處理成一些你覺09/14 22:33
10F→: 得有用的feature,然後直接套現有的方法做做看,再根09/14 22:33
11F→: 據不足慢慢改進09/14 22:33
13F→: 我說的處理feature是指"feature engineering"09/15 19:24
14F→: 轉換當然是程式執行,但如何轉換就是你要去思考的了09/15 19:25
12F→: 還沒仔細看程式,有幾個問題可能有幫助09/14 12:53
13F→: 1.神經元數量太少,網路根本沒辦法fit09/14 12:54
14F→: 2. 取資料訓練的時候應該是一次取一個batch下去訓練,09/14 12:57
15F→: 然後輪完整個資料集再重複動作09/14 12:57
16F→: 3. 我不太懂驗證的時候那個20000是做什麼的?驗證只要09/14 13:01
17F→: 輸入x跑一次就能得到一個預測的y了09/14 13:01
18F→: 另外如果你們教授許可的話,新手從keras或pytorch入09/14 13:03
19F→: 門會簡單非常多09/14 13:03
21F→: 你可能要先搞懂一下batch這個概念,在神經網路中09/14 18:59
22F→: 一次train一筆跟一次train一個batch結果可能差很多09/14 19:00
23F→: 再來就是上面提到的神經網路太淺太瘦09/14 19:00
24F→: 試試看先把神經元數量加大 可能幾百以上09/14 19:01
25F→: 還有一點,你train完20000次之後,接著09/14 19:02
26F→: 驗證50筆資料,而不是你文中的每train20000再09/14 19:03
27F→: 驗證一筆09/14 19:03
2F→: 我記得搜尋multi label classification就很多資料了09/08 03:16
3F→: 用sigmoid 針對每個class都去算binary cross entropy09/08 03:17
4F→: 也行09/08 03:17
1F→: 不是很懂你的問題在哪,是D=A+B不知道怎麼做嗎?07/26 06:03