[問卦] Second-order optimization在ML會成功嗎?
大家安安
想請問版上專業的高手,目前做ML的人所使用的optimization methods
幾乎9成以上是用Stochastic gradient(First-order based methods)
想請問各位覺得Newton Methods(Second-order based optimization)
在ML有可能成功嗎?
如果會成功,各位覺得會在什麼情況下成功?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.42.226.133 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1563543126.A.5AF.html
→
07/19 21:32,
4年前
, 1F
07/19 21:32, 1F
推
07/19 21:33,
4年前
, 2F
07/19 21:33, 2F
→
07/19 21:37,
4年前
, 3F
07/19 21:37, 3F
推
07/19 21:41,
4年前
, 4F
07/19 21:41, 4F
推
07/19 21:42,
4年前
, 5F
07/19 21:42, 5F
推
07/19 21:42,
4年前
, 6F
07/19 21:42, 6F
推
07/19 21:43,
4年前
, 7F
07/19 21:43, 7F
→
07/19 21:44,
4年前
, 8F
07/19 21:44, 8F
推
07/19 21:45,
4年前
, 9F
07/19 21:45, 9F
→
07/19 21:49,
4年前
, 10F
07/19 21:49, 10F
→
07/19 21:50,
4年前
, 11F
07/19 21:50, 11F
→
07/19 22:13,
4年前
, 12F
07/19 22:13, 12F
討論串 (同標題文章)