[問題] 基礎數學請益

看板DataScience作者 (秋風之痕)時間4年前 (2019/06/26 10:42), 編輯推噓7(8133)
留言42則, 9人參與, 4年前最新討論串1/1
資料科學的板友好 小弟最近再複習資料探勘、機器學習的基礎數學。 預計會讀微積分、線代、機率與統計,以及練習一下Python 想請問在各科裡面有那些可以略過部分,有哪些需要額外加強的部分? 比如說:三角函數的部分需要念嗎? ps.目前以線上教材為主 Ex:莊重老師的微積分 以上,謝謝大家 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 124.9.79.207 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1561516952.A.462.html

06/26 10:55, 4年前 , 1F
林軒田機器學習 youtu有
06/26 10:55, 1F

06/26 11:15, 4年前 , 2F
機率與統計、隨機程序最好是有全方面都讀,尤其是想走GM
06/26 11:15, 2F

06/26 11:15, 4年前 , 3F
M領域。線代特徵方程、特徵向量,基本的矩陣運算、svd、
06/26 11:15, 3F

06/26 11:15, 4年前 , 4F
LU分解。微分真的用到的就是偏微方而已。這些讀熟,ML真
06/26 11:15, 4F

06/26 11:15, 4年前 , 5F
心不難。
06/26 11:15, 5F

06/26 11:17, 4年前 , 6F
進修就數學的最佳化理論,電資應該接觸到比較少要另外
06/26 11:17, 6F

06/26 11:17, 4年前 , 7F
看,然後要從大架構看整個DL消息理論一定要讀熟。
06/26 11:17, 7F

06/26 11:25, 4年前 , 8F
不用,邊看邊學就好,這領域的數學沒那麼難
06/26 11:25, 8F

06/26 11:26, 4年前 , 9F
除非你要做基礎研究,不然基本線代跟機率概念有就好
06/26 11:26, 9F

06/26 12:00, 4年前 , 10F
另外,我真心推薦吳恩達教授Coursera 的課程,雖然部分
06/26 12:00, 10F

06/26 12:00, 4年前 , 11F
課程有點舊,但是作業都是從matlab來做,matlab的好處是
06/26 12:00, 11F

06/26 12:00, 4年前 , 12F
你會比較有實際實用到線代在數值運算上的感覺。
06/26 12:00, 12F

06/26 12:00, 4年前 , 13F
全部作業都有做的話,基本的ml一定沒問題
06/26 12:00, 13F

06/26 19:01, 4年前 , 14F
基本微積分概念 + 應用的線性代數層面 + 直接讀機器
06/26 19:01, 14F

06/26 19:01, 4年前 , 15F
學習 + python實作 就夠了
06/26 19:01, 15F

06/26 19:09, 4年前 , 16F
謝謝版友的建議,我大概抓到方向了,謝謝各位。
06/26 19:09, 16F

06/27 07:39, 4年前 , 17F
call svm
06/27 07:39, 17F

06/27 12:45, 4年前 , 18F
.......不難喔 一堆收斂速度 generalization bound算
06/27 12:45, 18F

06/27 12:45, 4年前 , 19F
到我懷疑人生了 會用deep和理解也是兩回事 比創意不難
06/27 12:45, 19F

06/27 12:45, 4年前 , 20F
啦 比數學我看是難到爆啦 連現在的數學工具有沒有辦法
06/27 12:45, 20F

06/27 12:45, 4年前 , 21F
解決deep的問題都是個謎
06/27 12:45, 21F

06/27 23:37, 4年前 , 22F
我在產品端的,重點是要能解決客戶跟user的問題
06/27 23:37, 22F

06/27 23:37, 4年前 , 23F
只要理解各個算法的限制就好,不需要多高深的數學
06/27 23:37, 23F

06/27 23:37, 4年前 , 24F
樓主是跨領域來學的,本來也就不太可能走學術
06/27 23:37, 24F

06/28 06:46, 4年前 , 25F
怎麼不去讀讀現在deep learning theory的paper 你會發
06/28 06:46, 25F

06/28 06:46, 4年前 , 26F
現convergence rate跟concentration bound都是小菜一疊
06/28 06:46, 26F

06/28 06:48, 4年前 , 27F
不會random matrix, dynamical system, stochastic cal
06/28 06:48, 27F

06/28 06:48, 4年前 , 28F
culus我都不敢說自己會theory了
06/28 06:48, 28F

06/28 06:50, 4年前 , 29F
更偏門的還有代數拓普的TDA跟information geometry 所
06/28 06:50, 29F

06/28 06:50, 4年前 , 30F
以問到ml需要什麼數學我都笑笑
06/28 06:50, 30F

06/28 06:51, 4年前 , 31F
(沒有針對樓主或哪位 單純發牢騷
06/28 06:51, 31F

06/28 19:28, 4年前 , 32F
Deep Learning Theory根本就還沒有幾個dataset可以算
06/28 19:28, 32F

06/28 19:28, 4年前 , 33F
好的bound你說小菜一碟.... 收斂速度也一堆沒辦法算
06/28 19:28, 33F

06/29 20:09, 4年前 , 34F
我指的是傳統statistical learning theory的generaliza
06/29 20:09, 34F

06/29 20:09, 4年前 , 35F
tion bound跟convex optimization類型的基本convergenc
06/29 20:09, 35F

06/29 20:09, 4年前 , 36F
e rate
06/29 20:09, 36F

06/29 20:11, 4年前 , 37F
不然新出的paper也不知道用什麼鬼神技術來做 XD.
06/29 20:11, 37F

07/01 10:54, 4年前 , 38F
也沒到什麼鬼神技術啦 就加一堆constrain還有一堆看不
07/01 10:54, 38F

07/01 10:54, 4年前 , 39F
懂的證明
07/01 10:54, 39F

07/02 07:30, 4年前 , 40F
David J. C. MacKay
07/02 07:30, 40F

07/02 07:30, 4年前 , 41F
Information Theory, Inference and Learning Algor
07/02 07:30, 41F

07/02 07:30, 4年前 , 42F
ithms 這本試試
07/02 07:30, 42F
文章代碼(AID): #1T4jkOHY (DataScience)