Re: [請益] AI的發展選擇

看板Tech_Job作者 (i have a dream)時間8年前 (2017/10/23 10:59), 編輯推噓19(20140)
留言61則, 18人參與, 8年前最新討論串3/4 (看更多)
看完一系列文章 似乎了解AI的人不多 畢竟在浪頭上 所以大家一窩風的去炒他 → enso: 硬體架構還是得看哪一類的應用。若多為影像辨識,那gpu還是 10/23 00:22 → enso: 好用些。至於AI,也是蠻廣的,不是跑CNN就算AI。到終究還是 10/23 00:22 → enso: 統計... AI弄到最後 老實說就統計跟數學 程式只是輔助工具而已 而硬體 是進階的輔助 因為進步非常的快 所以常常今年流行的演算法 明後年馬上很少人用了 譬如說當初學的SVM的 kernel 學了幾十種 Kernel 還有混和kernel 第二年學教就不開kernel 直接交deep learning 再過一年直接變成 deep reinforced learning 也開始有簡單的ML套裝軟件出現 我同學還開發了 直接在excel上面可以用ML 套件 給商學院的人使用 至些都只是用現成的API 至於未來會不會有比較高效的演算法出現 很難說~ 所以或句話說 你今天會的API 明年可能馬上退流行或被取代掉了 而且以台灣現狀 大多都是用現成的API 調調參數 這算真的懂ML嗎? 跟幾個ML的教授跟 Hassabis 聊過 他們給我的忠告是把 數學 統計學 C++學好 因為演算法可能幾年後主流就不再deep learning了 那時候是不是又會開發出新的晶片架構 提供給新的演算用呢? 很難說~~ ※ 引述《david190 (david)》之銘言: : ※ 引述《vivian032619 (亮~被罵+掛電話惹)》之銘言: : : 朋友代po : : ------------------ : : 目前有兩個題目可以選擇,不知道哪個選擇未來工作發展比較好。 : : 1. AI的應用,比較偏純軟體 : : 利用機器學習和影像處理取代人力 : : 不用對AI原理有太深入了解 : : 花比較多時間在應用的實作。 : : 2. AI的晶片,比較偏硬體 : : 利用FPGA加速AI在影像處理的效能 : : 30%要了解AI的數學原理 : : 70%在寫硬體。 : 就我的感覺 AI領域不要切分成軟跟硬 : 現在做AI晶片除了 輝達外 還有 intel 谷歌 微軟 IBM 華為 : 為何AI被注目 跟 自動駕駛跟阿法狗 被矚目有關係 這兩個都是谷歌做出示範可行的 : 谷歌是做軟服務 而IBM微軟也是做服務的 為何軟服務的大公司會想做AI硬體? : 可以猜測 是目前現行硬體架構 已經不足續驅動AI軟件發展了 : 所以三大軟服務公司都去做硬體是必然的 順便搶AI硬體架構決定權 : 誰能拿下AI硬體架構決定權 代表誰之前的AI軟硬體研發能最小損耗不需推倒多數重來 : 所以做AI晶片的公司 本身就是會發展AI軟件跟服務的公司 這應該是不可分的 : 我相信intel如果能搶下AI硬體架構 也會順便攻進AI軟服務的 因為這整套一起發展的~ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 81.106.81.16 ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1508727557.A.523.html

10/23 11:03, 8年前 , 1F
我覺得這就是有點看不起應用層了,選好Featrue不見得比做
10/23 11:03, 1F

10/23 11:03, 8年前 , 2F
kernel簡單,不如說好的featrue改善程度遠大於改kernel
10/23 11:03, 2F

10/23 11:04, 8年前 , 3F
很多時候還會選不同kernel來驗證這個featrue是真的有效的
10/23 11:04, 3F

10/23 11:04, 8年前 , 4F
這也算是ML的鄙視鏈吧...
10/23 11:04, 4F

10/23 11:05, 8年前 , 5F
Featrue通常是靠統計哪塊去選~不然你是怎麼選feature?
10/23 11:05, 5F

10/23 11:07, 8年前 , 6F
統計不夠強根本無法選出合適的features
10/23 11:07, 6F

10/23 11:07, 8年前 , 7F
只能用try的 目前台灣好像都是用try的
10/23 11:07, 7F

10/23 11:09, 8年前 , 8F
應該說ML有很多面向,用現成的API調參數只是一個選擇,每
10/23 11:09, 8F

10/23 11:10, 8年前 , 9F
人著重的面向都不同,不代表用現成的API調參數就是不懂ML
10/23 11:10, 9F

10/23 11:11, 8年前 , 10F
因為API很方便 所以國外蠻多做ML的公司 面試
10/23 11:11, 10F

10/23 11:12, 8年前 , 11F
就直接考你公式推導 還有每個API參數的特性
10/23 11:12, 11F

10/23 11:13, 8年前 , 12F
適用於那種data 會考的你不要不要的~~~
10/23 11:13, 12F

10/23 11:14, 8年前 , 13F
因為他們就怕你只會調參數 但不知道它的原理
10/23 11:14, 13F

10/23 11:14, 8年前 , 14F
這方面我就沒涉獵了,受教了。
10/23 11:14, 14F

10/23 11:16, 8年前 , 15F
最好笑的 我有一個同學直接跟面試官說 我會調參數就好
10/23 11:16, 15F

10/23 11:16, 8年前 , 16F
面試官直接回答他 你原理都不懂 你確定你會調?
10/23 11:16, 16F

10/23 11:18, 8年前 , 17F
您認真了 跟GG版說這些做啥? 去GG一輩子賺150才是王道
10/23 11:18, 17F

10/23 11:19, 8年前 , 18F
不過這邊講的會調參數跟我想的不太一樣就是,我以為的會用
10/23 11:19, 18F

10/23 11:20, 8年前 , 19F
API跟會調參數就是會知道你說的那些,但是可能是演算法或
10/23 11:20, 19F

10/23 11:20, 8年前 , 20F
其他程度不足以到自己開發到實用API的程度這樣。
10/23 11:20, 20F

10/23 11:23, 8年前 , 21F
樓上講這樣也是沒錯啦~~但那是比較強一點狀況
10/23 11:23, 21F

10/23 11:23, 8年前 , 22F
比較弱的狀況 就亂調得到很高的準確率 就說自己會了
10/23 11:23, 22F

10/23 11:24, 8年前 , 23F
那真的很傻眼
10/23 11:24, 23F

10/23 11:28, 8年前 , 24F
這...我沒想到這種人的可能性...是我孟浪了 Orz
10/23 11:28, 24F

10/23 11:30, 8年前 , 25F
c++?把python當死人了嗎(戰)
10/23 11:30, 25F

10/23 11:37, 8年前 , 26F
推 真的一堆人在try參數 然後獲得很高準確度就說會了
10/23 11:37, 26F

10/23 11:38, 8年前 , 27F
然後問他你調參數的道理是啥 覺得遇到什麼問題才這樣
10/23 11:38, 27F

10/23 11:38, 8年前 , 28F
改變參數 結果都達不出來 QQ
10/23 11:38, 28F

10/23 11:40, 8年前 , 29F
不然就發現精度不夠 一窩蜂的跑去想辦法找資料來try
10/23 11:40, 29F

10/23 11:42, 8年前 , 30F
我還記得剛進研究所的時候,就是寫兩個loop去跑K-fold CV
10/23 11:42, 30F

10/23 11:43, 8年前 , 31F
然後這樣去拿SVM的兩個參數,誰知道為什麼這個參數好,用
10/23 11:43, 31F

10/23 11:43, 8年前 , 32F
就對了 (ry
10/23 11:43, 32F

10/23 11:58, 8年前 , 33F
feature未必要用統計 機器也可以學阿
10/23 11:58, 33F

10/23 12:01, 8年前 , 34F
選feature多的方法幹 造feature才是難點
10/23 12:01, 34F

10/23 12:03, 8年前 , 35F
當然是這樣的阿 新的更好演算法 值得更好的硬體架構
10/23 12:03, 35F

10/23 12:03, 8年前 , 36F
大部分top model RF GB表現會十分近似 弄好feature出來
10/23 12:03, 36F

10/23 12:03, 8年前 , 37F
不能是 演算法要屈就現在的 硬體架構吧~
10/23 12:03, 37F

10/23 12:03, 8年前 , 38F
不比搞演算法容易
10/23 12:03, 38F

10/23 12:05, 8年前 , 39F
這讓我想到生還者預測,姓名直接被丟進去沒有太大效益
10/23 12:05, 39F

10/23 12:06, 8年前 , 40F
但是如果整理成家族生還率的參照featrue就會有效果
10/23 12:06, 40F

10/23 12:15, 8年前 , 41F
不過感覺這又變成類似前後端之爭的東西了,鄙視鏈重現
10/23 12:15, 41F

10/23 13:31, 8年前 , 42F
SVM只有g/c兩個參數都能不懂原理 那10個以上怎麼調XD
10/23 13:31, 42F

10/23 14:11, 8年前 , 43F
跑10個loop (ry
10/23 14:11, 43F

10/23 15:25, 8年前 , 44F
之前看研究所的學長meeting,整場我就只看到他:準確率不高
10/23 15:25, 44F

10/23 15:25, 8年前 , 45F
->改參數 or 加一堆有的沒的模型
10/23 15:25, 45F

10/23 15:25, 8年前 , 46F
->準確率變高了ya ,有夠無言...
10/23 15:25, 46F

10/23 16:29, 8年前 , 47F
推造feature才是困難的,選feature有很多統計方法
10/23 16:29, 47F

10/23 17:01, 8年前 , 48F
我現在才知道原來選feature跟造feature居然被分成兩種了
10/23 17:01, 48F

10/23 17:02, 8年前 , 49F
我整個老人化...以前我們說選feature就包含選自己作出來的
10/23 17:02, 49F

10/23 17:38, 8年前 , 50F
參數化也是統計的一部份... 最後會發現,會挑數據比教重要
10/23 17:38, 50F

10/23 18:00, 8年前 , 51F
GIGO
10/23 18:00, 51F

10/23 19:36, 8年前 , 52F
滿專業的 數學還是要先打好基礎...
10/23 19:36, 52F

10/23 19:46, 8年前 , 53F
AI專業可以超越GG的150吧
10/23 19:46, 53F

10/23 20:57, 8年前 , 54F
我也是覺得feature seletection跟data presentation不
10/23 20:57, 54F

10/23 20:57, 8年前 , 55F
一樣的說o 3o
10/23 20:57, 55F

10/24 13:01, 8年前 , 56F
印象當中最好玩的是~我問了幾個MIT的主管~
10/24 13:01, 56F

10/24 13:02, 8年前 , 57F
如何把分布不平均的data 變成常態分布的時候
10/24 13:02, 57F

10/24 13:03, 8年前 , 58F
沒有一個答得出來的~~我就跟他們說 開根號乘以十
10/24 13:03, 58F

10/24 13:03, 8年前 , 59F
其中一個聽得懂~就一直笑~
10/24 13:03, 59F

10/24 13:26, 8年前 , 60F
教授期末調分,ㄏㄏ
10/24 13:26, 60F

10/25 10:19, 8年前 , 61F
要挑feature也要有sample訓練啊
10/25 10:19, 61F
文章代碼(AID): #1PxLi5KZ (Tech_Job)
文章代碼(AID): #1PxLi5KZ (Tech_Job)