Re: 本來學ML是該轉路還是繼續鑽研
※ 引述《ckrmpuhv (阿瓜)》之銘言:
: 各位板上大大好
: 小弟是後段國立科大資管碩即將畢業
^^^^^^^^^^^^^^^^^
恩..."後段國立科大資管",好一點的公司可能連HR那關都過不了
: 因為一些私人原因是不用當兵
: 所以論文完成後準備開始找工作
: 目前程度:
: 大學學過JAVA
^^^^^^^^^^^^^^^
要走ML,應該是要用Python吧,至少tensorflow 或是pytorch都是在python上有最多的
支持,那如果要走ML的底層,那就應該要會c++跟cuda或是opencl之類的
: 網頁跟資料庫也只有課堂學習過沒實際做小專案
: 因為對Ml有興趣
: 在碩階段期間 都是自學ML相關
: 聽過李宏毅老師的課
: 實作過他課程的作業
: Keras的一些神經網路搭建也沒捨問題
: Kaggle只參加過一兩次 排名都很爛
: 大部分的實作和論文都是跟影像辨識相關
: 最近看板上大大各式各樣建議
: 非四大四中 也不是kaggle的佼佼者
: 數學方面 線代沒學 統計學大學學過但也不熟
: 看完覺得自己很爛出去可能沒人要?
理論不行,直接自爆
但我想問一下,你是否有能力可以去推導back propagation?
或是可以用數學理解為何inception net 比 VGG16好
那甚麼是 L1 L2 constrain?
牛頓法跟gradient descent有甚麼關係勒?
你說你的論文是跟影像有關的,那懂不懂傅立葉轉換阿?
: 目前都還在做ml各種模型實作
: 但看完板上很迷茫要往哪些方向學習怕找不到工作非常憂鬱
: 我不清楚該橫向發展拓別的領域
: 像是網頁、App 自己做一些小專案增加作品集
: 還是去補數學 更深入研究Ml
: 又或者先去刷Leetcode打底
: 還請各位大大指教 謝謝
: -----
: Sent from JPTT on my iPhone
我自己也不是ML專業,也算是半路出家的,那因為要把ML放在MCU上,
所以去看了很多ML的paper跟文章。
ML的水很深,如果數學不行,就一定要把數學補起來,要不然人家面試問一下,
就真的倒在那邊惹。(請注意喔,我上面的問題都還只是基本題中的基本喔)
我曾經在一篇文章講過,用Keras把一個常見的模型跑起來,這個請個工讀生
都可以做到的事情,沒有必要花錢請一位工程師來做。
但是我可以告訴我主管 ,為什麼要這樣做,Learning rate要怎麼設定會比較讓
模型快速收斂,這才是我的價值。
喔~~對了,我還只是個韌體工程師喔,我的專業還是在韌體上開發演算法喔
在台灣做ML的大致上有兩種(這也是我專門做ML的學弟跟我講的)ㄎㄎ:
有問題的話也請做ML的專業大大更正
1. 拿現成的model去做 transfer learning或是改善pre-processing的方法,讓圖片
或是資料更容易讓model收斂。
很多公司都是要有馬上的功效,若是重新建立一個新的架構,那要花多少時間去
fine tune?然後要收集多少的資料去最佳化weighting?
聽說連發哥都沒在做這種事情,那就更不用期待其他一些小公司有辦法去支持這樣的
開發案。
2. 把現有的ML 模型縮小,然後可以放在嵌入式系統上。
這就跟我現在在弄的案子比較有關連,確實會需要ML的工程師,不過該工程師
最好也得知道一點嵌入式系統,這樣在執行專案上會比較有幫助。
如果真的要走ML,就請把線性代數跟統計補齊,因為deep learning只是ML中的一部分
如果可以用比較傳統的方法就可以解決的問題,為何一定要用deep learning????
如果發現自己的數學不行,那就趕快盡早轉行。
真心不騙......
順帶一提,其實外商比較不太重視學歷,但很重視英文,所以英文也是一項重要的技能
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.124.168.123 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1615442547.A.5D6.html
推
03/11 14:05,
3年前
, 1F
03/11 14:05, 1F
推
03/11 14:05,
3年前
, 2F
03/11 14:05, 2F
→
03/11 14:05,
3年前
, 3F
03/11 14:05, 3F
推
03/11 14:30,
3年前
, 4F
03/11 14:30, 4F
→
03/11 14:31,
3年前
, 5F
03/11 14:31, 5F
推
03/11 14:32,
3年前
, 6F
03/11 14:32, 6F
→
03/11 14:32,
3年前
, 7F
03/11 14:32, 7F
→
03/11 14:32,
3年前
, 8F
03/11 14:32, 8F
ㄎㄎㄎ
其實也只是跟主管特別強調一下: "我不是只會套模型這樣的啦"XD
當然因為主管不懂deep learning,所以聽到我這樣跟他說,他喔喔喔喔 ~~~果然有價值!!
(這可以算是嘴砲的最佳實證)
當然,我自認為我的程度是還不是很懂ML這塊的喔
我只是個半路出家的嵌入式韌體工程師喔
※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 14:39:45
推
03/11 14:36,
3年前
, 9F
03/11 14:36, 9F
※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 14:52:08
推
03/11 15:51,
3年前
, 10F
03/11 15:51, 10F
→
03/11 15:51,
3年前
, 11F
03/11 15:51, 11F
→
03/11 15:51,
3年前
, 12F
03/11 15:51, 12F
→
03/11 15:51,
3年前
, 13F
03/11 15:51, 13F
推
03/11 16:27,
3年前
, 14F
03/11 16:27, 14F
→
03/11 16:27,
3年前
, 15F
03/11 16:27, 15F
→
03/11 16:27,
3年前
, 16F
03/11 16:27, 16F
沒錯,譬如說Adagrad,這種東西在tensorflow 不用自己去code
但我當初就是跟主管報告甚麼是Adagrad,以及為什麼要用Adagrad
然後主管就: 喔! 讚~~雖然聽不懂, 但感覺很厲害,然後考績就香惹
大guy4這樣
ML面試的問題千變萬化 ,也有可能面試者直接問甚麼是Adagrad阿 ?
那為何用Adagrad效果不錯?
所以我是覺得把ML的基本理論都弄懂是絕對重要的
推
03/11 16:30,
3年前
, 17F
03/11 16:30, 17F
→
03/11 16:30,
3年前
, 18F
03/11 16:30, 18F
推
03/11 16:32,
3年前
, 19F
03/11 16:32, 19F
推
03/11 16:53,
3年前
, 20F
03/11 16:53, 20F
※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 17:12:53
※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 17:21:41
推
03/11 18:38,
3年前
, 21F
03/11 18:38, 21F
推
03/11 18:39,
3年前
, 22F
03/11 18:39, 22F
→
03/11 18:39,
3年前
, 23F
03/11 18:39, 23F
→
03/11 18:39,
3年前
, 24F
03/11 18:39, 24F
→
03/11 18:39,
3年前
, 25F
03/11 18:39, 25F
推
03/11 18:48,
3年前
, 26F
03/11 18:48, 26F
→
03/11 18:49,
3年前
, 27F
03/11 18:49, 27F
→
03/11 18:49,
3年前
, 28F
03/11 18:49, 28F
噓
03/11 19:25,
3年前
, 29F
03/11 19:25, 29F
→
03/11 19:27,
3年前
, 30F
03/11 19:27, 30F
我其實不太懂你的點 ....原po說kaggle打得很爛 ,然後又不太懂數學, 假若你們公司
需要有即戰力的ML工程師,你敢用他嗎???????????
我相信kaggle名次很前面的高手,對於小弟所提出的弱砲問題一定是秒殺
推
03/11 19:44,
3年前
, 31F
03/11 19:44, 31F
→
03/11 19:44,
3年前
, 32F
03/11 19:44, 32F
→
03/11 19:44,
3年前
, 33F
03/11 19:44, 33F
→
03/11 19:49,
3年前
, 34F
03/11 19:49, 34F
→
03/11 19:49,
3年前
, 35F
03/11 19:49, 35F
推
03/11 19:50,
3年前
, 36F
03/11 19:50, 36F
推
03/12 01:51,
3年前
, 37F
03/12 01:51, 37F
推
03/12 01:56,
3年前
, 38F
03/12 01:56, 38F
推
03/12 10:11,
3年前
, 39F
03/12 10:11, 39F
資料降維是什麼?
這個做ML的人倘若不知道,基本上應該是.....呵呵又顆顆
PCA是很常見資料降維的手法之一
這在線性代數裡面是很基本的內容,原po沒有唸過線性代數,我會很懷疑
原po處理資料的能力在哪裡
※ 編輯: isaacting (49.216.70.16 臺灣), 03/12/2021 10:33:37
推
03/12 11:45,
3年前
, 40F
03/12 11:45, 40F
推
03/12 12:18,
3年前
, 41F
03/12 12:18, 41F
推
03/12 13:15,
3年前
, 42F
03/12 13:15, 42F
→
03/12 13:16,
3年前
, 43F
03/12 13:16, 43F
→
03/12 13:17,
3年前
, 44F
03/12 13:17, 44F
推
03/12 22:31,
3年前
, 45F
03/12 22:31, 45F
→
03/12 22:38,
3年前
, 46F
03/12 22:38, 46F
推
03/12 23:37,
3年前
, 47F
03/12 23:37, 47F
→
03/12 23:37,
3年前
, 48F
03/12 23:37, 48F
→
03/13 01:54,
3年前
, 49F
03/13 01:54, 49F
噓
03/13 09:45,
3年前
, 50F
03/13 09:45, 50F
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 2 之 9 篇):