作者查詢 / countingtls
作者 countingtls 在 PTT [ GO ] 看板的留言(推文), 共196則
限定看板:GO
看板排序:
19F噓: 還在minmax, 通通回去看完論文再來推文03/13 22:45
26F→: 修正一下ANN的起始年代03/13 22:27
27F→: google一下Walter Pitts跟Warren McCulloch03/13 22:28
28F→: 再來找 Marvin Minsky 跟 Seymour Papert03/13 22:29
30F→: ANN 1940s年代就有理論, 50, 60年代開始被實作03/13 22:31
31F→: 70年代沒落,80年代第二復甦,03/13 22:31
32F→: 2000s年代又沒落,這幾年是再次復興03/13 22:32
36F→: CNN RNN也是80年代就出現,並不新只是重新挖出來03/13 22:34
38F→: ANN也不是ML的分支,自成一個領域。作為分類預測器只03/13 22:40
39F→: 是它功能之一。03/13 22:40
4F推: 左右互搏周伯通,瘋瘋癲癲但又強到沒人敢去碰它03/12 05:14
78F→: 讓幾子不需要額外的設定,這跟它的結構無關。03/11 08:03
79F→: 追求贏最多子目前架構是沒有,只考慮輸或贏。要增加03/11 08:05
80F→: 應該有辦法,03/11 08:05
85F→: 2nd page, Reinforcement Learning of policy networ03/11 09:51
86F→: ks03/11 09:51
87F→: We use a reward function r(s) that is zero for al03/11 09:52
88F→: l03/11 09:52
89F→: non-terminal time steps t < T. The outcome zt =03/11 09:52
90F→: 넠r(sT) is the terminal03/11 09:52
91F→: reward at the end of the game from the perspectiv03/11 09:52
92F→: e of the current03/11 09:52
93F→: player at time step t: +1 for winning and for lo03/11 09:52
94F→: -1 for losing03/11 09:53
95F推: 也不是追求勝率,看得懂Fig. 5?03/11 09:57
96F→: the algorithm chooses the most visited move from03/11 09:58
97F→: the root position03/11 09:58