作者查詢 / shaform

總覽項目: 發文 | 留言 | 暱稱
作者 shaform 在 PTT [ DataScience ] 看板的留言(推文), 共20則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
[問題] AI是黑箱?
[ DataScience ]71 留言, 推噓總分: +15
作者: dharma - 發表於 2019/06/09 23:40(6年前)
61Fshaform: 也沒人知道人類為何學習可以generalize well,但倒是沒06/19 02:12
62Fshaform: 人特別說人類的決定是黑箱 @@06/19 02:12
63Fshaform: 也沒人知道人類有沒有loss,有的話 landscape 是什麼06/19 02:12
[問題] AMD GPUs 跑 Deep Learning 穩定性如何?已刪文
[ DataScience ]15 留言, 推噓總分: +8
作者: agario - 發表於 2019/04/04 02:24(6年前)
13Fshaform: 樓上有贏 NVidia 嗎04/20 00:42
[問題] 時間序列資料的訓練集切法
[ DataScience ]36 留言, 推噓總分: +6
作者: avonasac0800 - 發表於 2019/04/11 22:29(6年前)
22Fshaform: 你可以用 [785:] 當測試集,然後訓練集拿 [0:784] 中的04/20 00:33
23Fshaform: 80%,這樣就可以測試在同樣的測試集的情況下04/20 00:33
24Fshaform: 到底是拿不要打亂的 80% ([0:627]) 還是拿打亂的 80%04/20 00:33
25Fshaform: 來訓練,會在同樣的測試集 [784:] 表現最好呢?04/20 00:34
26Fshaform: 嗯,不要打亂的 80% 也可能是 [157:784] ,這樣跟測試集04/20 00:35
27Fshaform: 比較近一些04/20 00:35
28Fshaform: 假設這樣做之後打亂真的還表現比較好,就能反駁yougigun04/20 00:37
29Fshaform: 的偷看說了04/20 00:37
30Fshaform: 至於為何測試集一定要拿最後呢?因為你最後學完的模型04/20 00:40
31Fshaform: 拿出來用的時候本來就是拿來預測「未來」,所以本來就會04/20 00:40
32Fshaform: 是在所有訓練資料的後面04/20 00:40
Re: [問題] ROC worse than random
[ DataScience ]4 留言, 推噓總分: +3
作者: jigfopsda - 發表於 2019/03/11 21:23(6年前)
3Fshaform: 推推03/20 07:54
Re: [請益] Data Engineer門檻問題
[ DataScience ]19 留言, 推噓總分: +12
作者: leafwind - 發表於 2018/03/28 22:55(7年前)
12Fshaform: 之前也有聽某個朋友說他們公司是招 scientist 可是其實03/29 13:02
13Fshaform: 大部分時間做的事比較像 engineer @@!03/29 13:03
Re: [問題] linear regression 的feature選用問題
[ DataScience ]15 留言, 推噓總分: +9
作者: CharlieL - 發表於 2018/03/28 09:48(7年前)
14Fshaform: <(_ _)>!!03/29 08:38
Re: [問題] Validation set 到底在做什麼?
[ DataScience ]52 留言, 推噓總分: +49
作者: CharlieL - 發表於 2018/03/28 00:11(7年前)
22Fshaform: <(_ _)>!!!!!03/28 08:17
首頁
上一頁
1
下一頁
尾頁