作者查詢 / yougigun
作者 yougigun 在 PTT [ DataScience ] 看板的留言(推文), 共33則
限定看板:DataScience
看板排序:
全部Soft_Job135graduate118Grad-ProbAsk42DataScience33Tech_Job14Python12Lineage9Boy-Girl8Physics8GraduateCram7StudyGroup4CS_TEACHER2HomeTeach2Master_D2MuscleBeach2NightLife2SENIORHIGH2Taoyuan2AfterPhD1CodeJob1feminine_sex1joke1post-b.test1RESIT1study1studyabroad1StupidClown1Trans-nctu1Web_Design1WomenTalk1<< 收起看板(30)
22F推: 推 ps cousera 上也有 andrew 開的deep learning 的課也08/13 19:14
23F→: 不錯08/13 19:14
4F推: 是怎樣的implicit feedback 可以舉個例子嗎06/22 20:55
14F推: 簡單來說 打亂就是偷看答案 而且不符合你想要預測模式04/15 00:45
15F→: 因為基本上你預測方式就是看歷史十筆預測第十一筆 但是04/15 00:45
16F→: 為什麼你隨機打亂mse低 就是因為model已經偷看過答案 在04/15 00:45
17F→: 訓練時 假設訓練到一組data 是看 第二筆倒地十一比預測04/15 00:45
18F→: 第十二筆 然候你test data 好死不死因為隨機抽 有一比是04/15 00:45
19F→: 看第一筆倒地十筆預測地十一比 因為這組data 跟 train04/15 00:45
20F→: data 相似度極高 預測的範圍基本不會差太多 導致mse較04/15 00:45
21F→: 低 但另一種切割方式 造時間切兩半 沒有這個問題04/15 00:45
33F→: s大 你提的兩種方式在他的定義點 都是屬於沒打亂 我想04/23 06:47
34F→: 解釋的是為什麼打亂MSE會下降的沒打亂多 再來不能因為下04/23 06:47
35F→: 降比較多 就選擇打亂的方式訓練模型 因為同你所說 是預04/23 06:47
36F→: 測未來 切資料應該要以時間點切04/23 06:47
6F推: 推s03/06 09:35
16F推: 推02/28 15:15
1F→: 就算correlation 為 0 也不能拿掉 a 文章以下問題 就不02/14 09:13
2F→: 存在了02/14 09:13
3F推: a(n) 重要性,應該是看a(n)與b(n)and a(n)與c(n) ,如果02/14 12:59
4F→: 其他特徵(b,c)跟它(a)相關性高,為了讓特徵變少,是可以02/14 12:59
5F→: 去掉a只看b,c組合,但單純只看a與y的correlation,可能會02/14 12:59
6F→: 因為沒有捕捉到a的高階特徵導致a與y相關性0,但說不定a^202/14 12:59
7F→: 與y 是高度正相關 所以才會需要DNN去捕捉高階特徵02/14 12:59
3F推: 看過第一版 寫的很好 公式推導 不會太難12/13 18:34
1F推: 推!11/10 20:48
2F推: 謝謝推薦08/14 23:19
4F→: 推一樓05/30 08:51