作者查詢 / cybermeow
作者 cybermeow 在 PTT [ DataScience ] 看板的留言(推文), 共24則
限定看板:DataScience
看板排序:
全部C_Chat4725UmaMusume3117Gossiping109studyabroad81AI_Art78PuzzleDragon62nCoV201939DataScience24Soft_Job16C_ChatBM15Kyoto_Ani14KIRARA12Programming12EuropeTravel11AC_In8Python5C_BOO3Tech_Job2DummyHistory1GL1H-GAME1Hunter1Japan_Travel1JapanStudy1joke1LightNovel1Marginalman1MobileComm1Tainan1Vtuber1<< 收起看板(30)
首頁
上一頁
1
下一頁
尾頁
25F→: 怎麼不去讀讀現在deep learning theory的paper 你會發06/28 06:46
26F→: 現convergence rate跟concentration bound都是小菜一疊06/28 06:46
27F→: 不會random matrix, dynamical system, stochastic cal06/28 06:48
28F→: culus我都不敢說自己會theory了06/28 06:48
29F→: 更偏門的還有代數拓普的TDA跟information geometry 所06/28 06:50
30F→: 以問到ml需要什麼數學我都笑笑06/28 06:50
31F→: (沒有針對樓主或哪位 單純發牢騷06/28 06:51
34F推: 我指的是傳統statistical learning theory的generaliza06/29 20:09
35F→: tion bound跟convex optimization類型的基本convergenc06/29 20:09
36F→: e rate06/29 20:09
37F→: 不然新出的paper也不知道用什麼鬼神技術來做 XD.06/29 20:11
57F推: 連用sgd train的over parameterized network為什麼可以06/17 19:38
58F→: generalize well都一堆正在研究了 你說不是黑箱06/17 19:38
59F→: 連loss的landscape長怎樣都不知道 像是什麼mode connec06/17 19:39
60F→: tivity06/17 19:39
135F推: 哇這篇一年了03/22 02:39
6F→: ai前三個大於後面兩個吧 iclr偏實驗paper 不過其實也03/07 04:35
7F→: 有理論的 只是比例較少 然後ml偏理論還有另外好幾個會03/07 04:35
8F→: 不過你問cv基本上無關就是03/07 04:35
9F推: 二元分類太廣了 應該要看實際的問題吧06/20 09:23
3F推: 好像真的涵蓋所有我知道的了05/14 21:47
20F推: 微分幾何(nonlinear dimensionality reduction)05/03 18:38
21F→: 泛函分析(kernel) 隨機過程(像是sgd可以用這個來解釋)05/03 18:39
22F→: 甚至transport theory(gan) 代數拓普都可以扯上關係05/03 18:44
首頁
上一頁
1
下一頁
尾頁