作者查詢 / fallcolor
作者 fallcolor 在 PTT [ GO ] 看板的留言(推文), 共37則
限定看板:GO
看板排序:
全部Celtics84poem74DummyHistory61Gossiping55GO37Tech_Job30ONE_PIECE27movie26Chan_Mou17CTS16historia16book13basketballTW11Soft_Job11SuperStarAve11happy-clan9Gulong7Web_Design7DataScience6RayAllen6Yulon6novel5ck49th3324Gintama4Talent4AllTogether3FTV3HsiaYu3Hsinchu3joke3NBA3PhD3BBSmovie2ComeHere2Fann_Wong2Literprize2PHI_Basketba2Rockets2Sean2b892040XX1BAHAMUT1Beauty1bicycle1BLEACH1CCJH12th3111Chen_C_H1ck56th3321ck57th3211CKCMGuitar141cksh80th3071CS94Lien1ECClab1Fallinlove1Fiction1FJU_HandDOLL1HKday1HSNU_11211HSNU_9771JP_Entertain1Knicks1KS94-3061Kusan_89-3121Lakers1Metal_kids1NARUTO1NBA_Film1NBAEasyChat1NCU_PDTL1Nets1NIUECE911NTNU-HISBK1Palmar_Drama1RSSH94_3011SchoolRumble1SCU_chem921ShamanKing1SlamDunk1Tainan1TigerBlue1Tou-Liu923141Wan-Ray-An1wretch1YP91-3031YUYUHAKUSHO1<< 收起看板(84)
首頁
上一頁
1
下一頁
尾頁
2F推: 兩個network輸出不變 但快速走子那裡應該有隨機03/15 22:50
6F→: 恩 所以搜尋樹深度很重要03/15 20:14
8F→: 不過我記得快速走子好像單獨使用才24%左右 這..算準嗎03/15 20:15
13F→: 如果是廣度問題 那就要更換MCTS的UCT策略了03/15 20:17
16F→: 我倒是覺得大家不用妄自菲薄 都是對ML有想法的人罷了03/15 20:26
22F→: 這個建議不錯耶03/15 21:45
34F推: Yuandong Tian真的很不錯!03/14 17:04
35F推: 不過rollout policy中的default policy論文裡有嗎?03/14 17:27
13F→: 我也覺得MCTS很重要 但既然不熟就不敢評論它的重要性03/14 15:01
14F→: 至於NN 純粹是認為你對NN求的最佳解理解為平均這概念03/14 15:02
15F→: 是錯的 所以才想介紹ML基礎原理03/14 15:02
16F→: Kalman filter的話...恩...它跟NN複雜度差太多..03/14 15:06
17F→: 不要這樣推論比較好03/14 15:06
57F→: 那你就這樣認為吧 以後你對ML懂更多就會改變想法了03/14 17:01
60F→: 我沒這麼說 我是說平均這概念不對 請別腦補 謝謝03/14 19:02
22F→: 說的對 除了參數個數 模型複雜度也跟f()形狀有關03/13 22:17
41F→: 說的對 因為ANN被提出時只有AI 沒有ML 他目的是仿生03/13 22:54
42F→: 不過因為本篇是談ML 所以我從1980開始算 的確不精確03/13 22:55
43F→: Dialysis的問題我答案可能是NO 因為f()長什麼樣子03/13 22:56
44F→: 還是由人定義03/13 22:56
7F→: 對NN的理解太草率了03/13 16:01
3F推: 除了google在賽前改MCTS的猜想以外的分析都滿同意的03/13 11:57
26F推: asglay我懂你 不要難過03/13 13:57
4F→: 看data source的性質 如果是像sensor收到的這種數值03/12 11:45
6F→: 勢必帶noise 那訓練階段就要故意加一點noisy data下去03/12 11:46
12F→: ML可以阿 只是過去ML模型沒這麼複雜 泛化能力就差03/12 11:48
13F→: 而且這樣說很奇怪 deep本來就是ML的一種03/12 11:48
15F→: 不是耶 你有誤會03/12 11:48
50F→: 說的是 但貼那個link就是要說明有策略可以讓NN效率變差03/12 13:03
51F→: MCTS如何破解的部分就需要其他專家補充了03/12 13:04
4F→: 加入什麼樣的雜訊能讓模型預測失效也是靠演算法算出來03/12 00:45
5F→: 人類能做的事是從這些雜訊反推此模型對什麼樣的輸入03/12 00:46
6F→: 比較敏感 容易預測錯誤03/12 00:46
8F→: 對 但這個研究的方向就是要證明ML還有改善空間03/12 00:48
10F→: 在某棋面下出某一步造成系統預測失準 把這種方式當作加03/12 00:50
11F→: 雜訊03/12 00:50
157F→: 人這麼武斷很難做研究03/12 08:04
首頁
上一頁
1
下一頁
尾頁