作者查詢 / championship
作者 championship 在 PTT [ DataScience ] 看板的留言(推文), 共38則
限定看板:DataScience
看板排序:
首頁
上一頁
1
下一頁
尾頁
1F推: 學術用國網啊,支持國產。07/19 12:14
1F推: Mercer's Theorem 確保kernel符合性質時,存在有對03/31 13:47
2F→: 應的映射函數,這件事情成立,但要從kernel反推回原03/31 13:47
3F→: 本的函數並不容易。03/31 13:47
6F推: 或許有領域在研究設計映射函數,但就我自己學習的理03/31 14:05
7F→: 解,使用kernel trick的原因之一,正是設計適合的映03/31 14:05
8F→: 射函數很技巧性,因此,多數人選擇發展較多數學性質03/31 14:05
9F→: 支持的kernel。儘管用近年深度學習的發展走向,這項03/31 14:05
10F→: 觀點似乎沒什麼說服力。03/31 14:05
11F→: 很技巧性的意思,是指可能比較沒有好的方法來度量,03/31 14:07
12F→: 被人為設計出來的映射函數的好壞。03/31 14:07
13F→: 另外,SVM本質還是關注在點與點之間的相對關係,因03/31 14:09
14F→: 此,究竟用什麼函數?映射到什麼維度的空間?實際上並03/31 14:09
15F→: 不太在意03/31 14:09
16F→: 畢竟,雖然你現在想看看二維打到三維呈現的分布,但03/31 14:14
17F→: 更多的問題,是在討論高維度,這些就無法視覺呈現,03/31 14:14
18F→: 所以自然大家也不會再花心思找映射函數03/31 14:14
1F→: 應該要考慮上(程式套件)下(gpu硬體)層的接口的相容06/17 17:31
2F→: 性吧?不06/17 17:31
3F→: 過理論上N卡公司自己寫的應該效能最好。另外,Train06/17 17:31
4F→: ing和實際使用也會有差,實際使用還可以透過"推論系06/17 17:31
5F→: 統"(OpenVINO, TensorRT, Tensorflow lite)優化運06/17 17:31
6F→: 算效能。06/17 17:31
1F推: 邏輯迴歸用 最大似然估計 最佳化,因此,容易受到離12/13 13:42
2F→: 群值影響。SVM 則是能夠利用Trade-off的超參數,降12/13 13:42
3F→: 低 loss 的影響,進而減低離群值的影響。12/13 13:42
4F推: 那就換簡單一點的有convex性質的模型,就可以有很多06/12 22:36
5F→: 數學性質可以講
29F推: 田神先拜03/28 10:14
1F推: 講得好清楚推推03/26 18:52
1F推: 通常使用cross-validation03/22 12:46
2F→: 會把training set分成幾等分03/22 12:46
3F→: 輪流挑一等分去作validation03/22 12:46
4F→: 其他分去作training的行為03/22 12:46
5F→: 利用這樣去找出好的參數03/22 12:46
6F→: 最後把整個training set拿去training03/22 12:46
7F→: 得到最終的model03/22 12:46
5F推: 坐等神人詳解02/15 09:51
首頁
上一頁
1
下一頁
尾頁