作者查詢 / fallcolor

總覽項目: 發文 | 留言 | 暱稱
作者 fallcolor 在 PTT [ GO ] 看板的留言(推文), 共37則
限定看板:GO
首頁
上一頁
1
下一頁
尾頁
[問題] 再和alphago重覆同一盤棋?
[ GO ]16 留言, 推噓總分: +4
作者: Dialysis - 發表於 2016/03/15 22:38(9年前)
2Ffallcolor: 兩個network輸出不變 但快速走子那裡應該有隨機03/15 22:50
[討論] alphago能進化成betago嗎消失
[ GO ]24 留言, 推噓總分: +3
作者: fallcolor - 發表於 2016/03/15 20:07(9年前)
6Ffallcolor: 恩 所以搜尋樹深度很重要03/15 20:14
8Ffallcolor: 不過我記得快速走子好像單獨使用才24%左右 這..算準嗎03/15 20:15
13Ffallcolor: 如果是廣度問題 那就要更換MCTS的UCT策略了03/15 20:17
16Ffallcolor: 我倒是覺得大家不用妄自菲薄 都是對ML有想法的人罷了03/15 20:26
22Ffallcolor: 這個建議不錯耶03/15 21:45
[新聞] Facebook工程師解疑:AlphaGo為什這厲害
[ GO ]43 留言, 推噓總分: +17
作者: zkow - 發表於 2016/03/14 15:40(9年前)
34Ffallcolor: Yuandong Tian真的很不錯!03/14 17:04
35Ffallcolor: 不過rollout policy中的default policy論文裡有嗎?03/14 17:27
Re: [心得] 圍棋AI AlphaGo 之我見
[ GO ]68 留言, 推噓總分: +9
作者: kafai - 發表於 2016/03/14 13:17(9年前)
13Ffallcolor: 我也覺得MCTS很重要 但既然不熟就不敢評論它的重要性03/14 15:01
14Ffallcolor: 至於NN 純粹是認為你對NN求的最佳解理解為平均這概念03/14 15:02
15Ffallcolor: 是錯的 所以才想介紹ML基礎原理03/14 15:02
16Ffallcolor: Kalman filter的話...恩...它跟NN複雜度差太多..03/14 15:06
17Ffallcolor: 不要這樣推論比較好03/14 15:06
57Ffallcolor: 那你就這樣認為吧 以後你對ML懂更多就會改變想法了03/14 17:01
60Ffallcolor: 我沒這麼說 我是說平均這概念不對 請別腦補 謝謝03/14 19:02
Re: [心得] 圍棋AI AlphaGo 之我見消失
[ GO ]59 留言, 推噓總分: +27
作者: fallcolor - 發表於 2016/03/13 21:53(9年前)
22Ffallcolor: 說的對 除了參數個數 模型複雜度也跟f()形狀有關03/13 22:17
41Ffallcolor: 說的對 因為ANN被提出時只有AI 沒有ML 他目的是仿生03/13 22:54
42Ffallcolor: 不過因為本篇是談ML 所以我從1980開始算 的確不精確03/13 22:55
43Ffallcolor: Dialysis的問題我答案可能是NO 因為f()長什麼樣子03/13 22:56
44Ffallcolor: 還是由人定義03/13 22:56
[心得] 圍棋AI AlphaGo 之我見
[ GO ]73 留言, 推噓總分: +25
作者: kafai - 發表於 2016/03/13 15:30(9年前)
7Ffallcolor: 對NN的理解太草率了03/13 16:01
[轉錄] 分析AlphaGo算法巨大的優勢與可能的缺陷
[ GO ]29 留言, 推噓總分: +15
作者: rgx - 發表於 2016/03/13 11:41(9年前)
3Ffallcolor: 除了google在賽前改MCTS的猜想以外的分析都滿同意的03/13 11:57
Re: [新聞] 科學視角解讀 AI3-5年內將贏遍人類棋手
[ GO ]26 留言, 推噓總分: +1
作者: saltfish - 發表於 2016/03/13 10:53(9年前)
26Ffallcolor: asglay我懂你 不要難過03/13 13:57
Re: [好文推薦] 這兩盤棋 沒人會比李世石做得好消失
[ GO ]53 留言, 推噓總分: +10
作者: fallcolor - 發表於 2016/03/12 11:35(9年前)
4Ffallcolor: 看data source的性質 如果是像sensor收到的這種數值03/12 11:45
6Ffallcolor: 勢必帶noise 那訓練階段就要故意加一點noisy data下去03/12 11:46
12Ffallcolor: ML可以阿 只是過去ML模型沒這麼複雜 泛化能力就差03/12 11:48
13Ffallcolor: 而且這樣說很奇怪 deep本來就是ML的一種03/12 11:48
15Ffallcolor: 不是耶 你有誤會03/12 11:48
50Ffallcolor: 說的是 但貼那個link就是要說明有策略可以讓NN效率變差03/12 13:03
51Ffallcolor: MCTS如何破解的部分就需要其他專家補充了03/12 13:04
Re: [好文推薦] 這兩盤棋 沒人會比李世石做得好消失
[ GO ]169 留言, 推噓總分: +15
作者: fallcolor - 發表於 2016/03/12 00:39(9年前)
4Ffallcolor: 加入什麼樣的雜訊能讓模型預測失效也是靠演算法算出來03/12 00:45
5Ffallcolor: 人類能做的事是從這些雜訊反推此模型對什麼樣的輸入03/12 00:46
6Ffallcolor: 比較敏感 容易預測錯誤03/12 00:46
8Ffallcolor: 對 但這個研究的方向就是要證明ML還有改善空間03/12 00:48
10Ffallcolor: 在某棋面下出某一步造成系統預測失準 把這種方式當作加03/12 00:50
11Ffallcolor: 雜訊03/12 00:50
157Ffallcolor: 人這麼武斷很難做研究03/12 08:04
首頁
上一頁
1
下一頁
尾頁