作者查詢 / yougigun

總覽項目: 發文 | 留言 | 暱稱
作者 yougigun 在 PTT [ DataScience ] 看板的留言(推文), 共33則
限定看板:DataScience
首頁
上一頁
1
2
下一頁
尾頁
Re: [心得] 自學AI資源分享
[ DataScience ]39 留言, 推噓總分: +24
作者: sssh - 發表於 2019/08/13 03:58(6年前)
22Fyougigun: 推 ps cousera 上也有 andrew 開的deep learning 的課也08/13 19:14
23Fyougigun: 不錯08/13 19:14
[問題] SVD++ 中的explicit +implicit feedback
[ DataScience ]4 留言, 推噓總分: +2
作者: ruokcnn - 發表於 2019/06/21 17:00(6年前)
4Fyougigun: 是怎樣的implicit feedback 可以舉個例子嗎06/22 20:55
[問題] 時間序列資料的訓練集切法
[ DataScience ]36 留言, 推噓總分: +6
作者: avonasac0800 - 發表於 2019/04/11 22:29(6年前)
14Fyougigun: 簡單來說 打亂就是偷看答案 而且不符合你想要預測模式04/15 00:45
15Fyougigun: 因為基本上你預測方式就是看歷史十筆預測第十一筆 但是04/15 00:45
16Fyougigun: 為什麼你隨機打亂mse低 就是因為model已經偷看過答案 在04/15 00:45
17Fyougigun: 訓練時 假設訓練到一組data 是看 第二筆倒地十一比預測04/15 00:45
18Fyougigun: 第十二筆 然候你test data 好死不死因為隨機抽 有一比是04/15 00:45
19Fyougigun: 看第一筆倒地十筆預測地十一比 因為這組data 跟 train04/15 00:45
20Fyougigun: data 相似度極高 預測的範圍基本不會差太多 導致mse較04/15 00:45
21Fyougigun: 低 但另一種切割方式 造時間切兩半 沒有這個問題04/15 00:45
33Fyougigun: s大 你提的兩種方式在他的定義點 都是屬於沒打亂 我想04/23 06:47
34Fyougigun: 解釋的是為什麼打亂MSE會下降的沒打亂多 再來不能因為下04/23 06:47
35Fyougigun: 降比較多 就選擇打亂的方式訓練模型 因為同你所說 是預04/23 06:47
36Fyougigun: 測未來 切資料應該要以時間點切04/23 06:47
[問題] val_loss < loss
[ DataScience ]25 留言, 推噓總分: +8
作者: keven92110 - 發表於 2019/03/06 08:26(6年前)
6Fyougigun: 推s03/06 09:35
[徵求] 小型讀書會徵人
[ DataScience ]17 留言, 推噓總分: +5
作者: kazaf1982 - 發表於 2019/02/25 22:14(6年前)
16Fyougigun: 推02/28 15:15
[問題] Autocorrelation檢驗LSTM 訓練 feature?
[ DataScience ]7 留言, 推噓總分: +1
作者: tipsofwarren - 發表於 2019/02/13 22:12(6年前)
1Fyougigun: 就算correlation 為 0 也不能拿掉 a 文章以下問題 就不02/14 09:13
2Fyougigun: 存在了02/14 09:13
3Fyougigun: a(n) 重要性,應該是看a(n)與b(n)and a(n)與c(n) ,如果02/14 12:59
4Fyougigun: 其他特徵(b,c)跟它(a)相關性高,為了讓特徵變少,是可以02/14 12:59
5Fyougigun: 去掉a只看b,c組合,但單純只看a與y的correlation,可能會02/14 12:59
6Fyougigun: 因為沒有捕捉到a的高階特徵導致a與y相關性0,但說不定a^202/14 12:59
7Fyougigun: 與y 是高度正相關 所以才會需要DNN去捕捉高階特徵02/14 12:59
[書籍] 推薦一本寫得很好的ML的書。
[ DataScience ]7 留言, 推噓總分: +6
作者: peter308 - 發表於 2018/12/12 17:09(7年前)
3Fyougigun: 看過第一版 寫的很好 公式推導 不會太難12/13 18:34
[心得] torchnmf -- 用PyTorch寫非負矩陣分解
[ DataScience ]3 留言, 推噓總分: +3
作者: yoyololicon - 發表於 2018/11/10 17:13(7年前)
1Fyougigun: 推!11/10 20:48
Re: [問題] 請推薦NLP入門的好書
[ DataScience ]9 留言, 推噓總分: +7
作者: fadeawaygod - 發表於 2018/08/13 19:41(7年前)
2Fyougigun: 謝謝推薦08/14 23:19
[問題] 實用上CNN怎麼解決不同影像大小問題
[ DataScience ]15 留言, 推噓總分: +7
作者: jaids - 發表於 2018/05/30 06:08(7年前)
4Fyougigun: 推一樓05/30 08:51
首頁
上一頁
1
2
下一頁
尾頁