作者查詢 / ching0629
作者 ching0629 在 PTT [ DataScience ] 看板的留言(推文), 共31則
限定看板:DataScience
看板排序:
首頁
上一頁
1
下一頁
尾頁
3F推: 對於任意kernel function而言,都可以找到一個對應的特03/30 22:14
4F→: 徵工程方式,如對一個資料僅含x1和x2兩個變項的資料,03/30 22:14
5F→: 進行二次多項式kernel function轉換,其對應到的特徵工03/30 22:14
6F→: 程方式是增加x1x2、x2x1、x1平方、x2平方等四項,所以03/30 22:14
7F→: 在有些情形下的確能找到一個對應的線性svm對應到原來03/30 22:14
8F→: 具有kernel function的svm。但為什麼說有些情況而已呢03/30 22:14
9F→: ,這是因為有些kernel function對應到的特徵工程是無03/30 22:14
10F→: 限多維的空間,這時候你當然寫不出線性svm的方程式,預03/30 22:14
11F→: 測新資料時就只能直接使用拉格朗日乘算子與支持向量進03/30 22:14
12F→: 行運算03/30 22:14
13F推: 是7個weight,還要加上原來的x1和x2,但其中x1x2與x2x103/31 13:13
14F→: 兩個權重一樣03/31 13:13
6F推: R語言的話參考一下國防醫學院的課程?03/27 14:12
7F→: https://linchin.ndmctsgh.edu.tw/course.html03/27 14:12
9F推: 課程講義裡面有呀03/27 17:18
4F推: ML就是後端 但能來解決你rule寫不出來(或不完整)的09/16 19:13
5F→: 任務09/16 19:13
8F推: 我覺得你的想法有點太廣泛,而從你的描述裏面發現你應09/17 12:48
9F→: 該不太適合專門做ML,我建議你往整合方向走,大部分專09/17 12:48
10F→: 門做ML的人不會把模型接到各種裝置上,你如果能整合模09/17 12:48
11F→: 型到應用應該蠻不錯的09/17 12:48
6F推: 其實我覺得連續預測滿坑的,使用linear output配上rmse05/13 00:46
7F→: loss的深度網路常常會在訓練過程中預測出離譜的極值,05/13 00:46
8F→: 導致梯度不穩定,簡單的使用類似relu的限制器又很容易05/13 00:46
9F→: 截斷梯度,用sigmoid之類的軟限制又很容易梯度消失,05/13 00:46
10F→: 所以真的很難練到很準。目前主流做法是把這類問題轉成05/13 00:46
11F→: 多分類問題,這樣能透過比較優雅的方式限制全距,我建05/13 00:46
12F→: 議可以參考一下別人怎麼透過臉部識別預測年齡的。05/13 00:46
1F→: 再補充一個點好了,物件檢測的loss function是一個同04/17 13:09
2F→: 時考慮原始方框與預測方框重疊面積,以及分類正確度的04/17 13:09
3F→: 一個損失函數,詳細的自己去找paper看吧,式子有點長04/17 13:10
首頁
上一頁
1
下一頁
尾頁