作者查詢 / naikojack

總覽項目: 發文 | 留言 | 暱稱
作者 naikojack 在 PTT [ PhD ] 看板的留言(推文), 共18則
限定看板:PhD
首頁
上一頁
1
下一頁
尾頁
(本文已被刪除) [1CPC]
[ PhD ]201 留言, 推噓總分: +37
作者: ICPC - 發表於 2018/05/24 22:32(7年前)
134Fnaikojack: 通訊轉ML門檻並沒有很高吧 通訊phys很多算法都算是跟ML05/27 12:36
135Fnaikojack: 有觸類旁通概念啊 事實上這陣滿多半路出家混得好的人啊05/27 12:37
136Fnaikojack: 連simon haykin都跑去寫ML教科書了05/27 12:38
137Fnaikojack: 事實上 應該要這樣想 ML也能解決通訊上許多問題 尤其05/27 12:40
138Fnaikojack: 網路層 說到底把ML當成一個知識 然後在想你喜歡哪種領05/27 12:41
139Fnaikojack: 領域就好 這就好比有不少做image procesing也能在CV做05/27 12:42
140Fnaikojack: 說到底 累積的知識是不會沒用的 只要能好好善用自己優05/27 12:43
142Fnaikojack: https://en.wikipedia.org/wiki/Simon_Haykin 2009寫的05/27 15:09
143Fnaikojack: 他的那本書還被一些ML學習網站列為必看書本05/27 15:10
144Fnaikojack: Adaptive Signal Processing 就是用gradient descent05/27 15:12
145Fnaikojack: 去解 裡面的收斂方式跟deep learning有觸類旁通05/27 15:13
146Fnaikojack: 你就把training seq(Adaptive Signal Processing)想成05/27 15:16
147Fnaikojack: 有label的training data (ML)去 就會覺其實大家方法都05/27 15:17
148Fnaikojack: 類似05/27 15:18
149Fnaikojack: 更別說belief propgation (LDPC)也有用到NLP上05/27 15:19
150Fnaikojack: 其他也有Expectation–maximization (Rate-distortion05/27 15:21
151Fnaikojack: in information theory) 用在learning 上05/27 15:21
152Fnaikojack: 我對通訊轉ML倒是挺樂觀其成的05/27 15:22
首頁
上一頁
1
下一頁
尾頁