作者查詢 / tsoahans

總覽項目: 發文 | 留言 | 暱稱
作者 tsoahans 在 PTT [ DataScience ] 看板的留言(推文), 共72則
限定看板:DataScience
首頁
上一頁
1
2
3
下一頁
尾頁
[問題] max pooling的梯度問題
[ DataScience ]23 留言, 推噓總分: +2
作者: subgn - 發表於 2021/10/17 18:07(4年前)
10Ftsoahans: max底下的值是同一個filter和不同資料區段運算得到的值10/18 15:26
11Ftsoahans: 所以不管是a1 a2 a3實際上都是update同一個filter10/18 15:27
12Ftsoahans: (假設max pool是接在convolution後面)10/18 15:28
[問題] 關於資料量太大 硬體跑不動的問題
[ DataScience ]23 留言, 推噓總分: +6
作者: Mutibil - 發表於 2021/06/07 15:43(4年前)
16Ftsoahans: loading完可以用numpy/pandas存成pickle/npy 下次讀取會06/17 12:24
17Ftsoahans: 比較快06/17 12:24
18Ftsoahans: 另外就是可以做一些資料處理 將無用特徵/樣本移除 再存06/17 12:25
19Ftsoahans: 成檔案 下次讀取就可以讀比較少的資料06/17 12:25
[問題] 視覺辨識的幾個問題
[ DataScience ]20 留言, 推噓總分: +2
作者: clansoda - 發表於 2020/02/28 05:04(5年前)
10Ftsoahans: 1.可能會影響可能不會 hard example mining或focal loss02/28 10:31
11Ftsoahans: 就是用來解決這問題 正常的樣本有些很好分有些很難分02/28 10:32
12Ftsoahans: 你要看看你的模型在三種角度下,分類的正確率有沒有差異02/28 10:34
13Ftsoahans: 如果某個角度的狗分類正確率特別差,那再考慮變更權重02/28 10:36
[問題] 異常檢測屬於不平衡資料情況嗎
[ DataScience ]16 留言, 推噓總分: +4
作者: disney82231 - 發表於 2019/02/20 20:46(6年前)
1Ftsoahans: 一般常講的異常檢測指的是非監督式的異常檢測,就是說訓02/21 15:54
2Ftsoahans: 練的時候假設所有訓練資料都是正常的樣本,用正常資料建02/21 15:56
3Ftsoahans: 立模型02/21 15:56
4Ftsoahans: 而不平衡資料則是屬於一般的監督式學習02/21 15:57
5Ftsoahans: 差別就是在於有沒有label02/21 15:58
6Ftsoahans: 如果你是問沒有label要如何計算效能,測試的時候其實還02/22 14:01
7Ftsoahans: 是需要有label來驗證演算法的效能02/22 14:01
8Ftsoahans: 大部分論文的做法都是根據label挑選出正常樣本集合的一02/22 14:02
9Ftsoahans: 部分當作訓練集,在拿剩下的當作測試02/22 14:02
10Ftsoahans: 是這樣沒錯02/23 18:53
[問題] 時間序列LSTM及未知詞處理
[ DataScience ]4 留言, 推噓總分: +2
作者: whwt - 發表於 2019/01/10 13:39(7年前)
4Ftsoahans: 直接去掉OOV的詞也是一種作法 另外就是用char-level處理01/11 13:01
[問題] 電腦硬體規劃(預算25萬)
[ DataScience ]14 留言, 推噓總分: +8
作者: YoursEver - 發表於 2018/12/17 18:51(7年前)
12Ftsoahans: 你這板子不是只能插amd的cpu嗎?12/19 09:57
[問題] 類別變數再神經網路或是其他 ML 方法處理
[ DataScience ]32 留言, 推噓總分: +6
作者: zxc741qaz123 - 發表於 2018/09/09 16:21(7年前)
27Ftsoahans: one-hot我還是會做標準化 因為他不一定是zero mean unit09/11 16:50
28Ftsoahans: variance 這可能會有影響09/11 16:50
29Ftsoahans: 但應該不會差太多就是了09/11 16:51
[問題] 中文資料集分類
[ DataScience ]3 留言, 推噓總分: +1
作者: ctr1 - 發表於 2018/08/28 10:22(7年前)
2Ftsoahans: 懶人包(? https://i.imgur.com/2djX9c5.png08/29 15:31
3Ftsoahans: 詳細 https://tinyurl.com/yc2opk7h08/29 15:33
[徵文] Halide
[ DataScience ]20 留言, 推噓總分: +12
作者: jimmycool - 發表於 2018/08/20 02:44(7年前)
3Ftsoahans: MIT跪了08/20 10:41
[徵求] 解釋深度學習原理易懂的文章(已整理)
[ DataScience ]47 留言, 推噓總分: +15
作者: ponponjerry - 發表於 2018/06/12 20:36(7年前)
15Ftsoahans: 李老師這學期的MLDS前面三章都講理論可以看看06/13 11:03
16Ftsoahans: http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS1806/13 11:04
25Ftsoahans: cs231的作業也蠻推薦的 寫完大概就能自己實做出DL框架06/14 16:08
26Ftsoahans: 吳尚鴻的數學講得比較深入 他連最佳化、PAC、NFL都有講06/14 16:19
29Ftsoahans: 我講的是PAC learning06/15 04:23
30Ftsoahans: 這是探討model的Generalization能力的一個理論,主要探06/15 04:27
31Ftsoahans: 討在data分布未知的情況下,倒底需要sample多少資料才能06/15 04:28
32Ftsoahans: 保證expected loss和empirical loss有很大的機率誤差在06/15 04:29
33Ftsoahans: 抹個範圍內。這個理論主要是在1980年代發展的,主要貢獻06/15 04:30
34Ftsoahans: 者Leslie Valiant因此理論獲得Turing Award06/15 04:32
35Ftsoahans: 後面的VC Theory也是在PAC的框架下繼續發展06/15 04:32
36Ftsoahans: PAC全名是probably approximately correct06/15 04:34
47Ftsoahans: 是08/02 17:59
首頁
上一頁
1
2
3
下一頁
尾頁