討論串[問卦] Second-order optimization在ML會成功嗎?
共 2 篇文章
首頁
上一頁
1
下一頁
尾頁

推噓6(6推 0噓 6→)留言12則,0人參與, 4年前最新作者Hodge (Data scientist)時間4年前 (2019/07/19 21:32), 編輯資訊
0
0
0
內容預覽:
大家安安. 想請問版上專業的高手,目前做ML的人所使用的optimization methods. 幾乎9成以上是用Stochastic gradient(First-order based methods). 想請問各位覺得Newton Methods(Second-order based opt
(還有13個字)

推噓3(4推 1噓 9→)留言14則,0人參與, 4年前最新作者primeman (精華)時間4年前 (2019/07/19 21:42), 編輯資訊
0
0
0
內容預覽:
如果用這個然後時間比較久. 就不必了. 尤其你跑的資料量很大. 然後你弄這些最佳化方法. 又丟進去機械學習 或類神經網路. 最後時間比較久 準確率提高3%. 個人是覺得沒必要 真的沒必要. 如果你知道丟銅板的準確率有5成. 然後有些東西四成的準確率就可以用的嚇嚇叫了. 客倌 你真的要花一個月 跑出正
(還有12個字)
首頁
上一頁
1
下一頁
尾頁