作者查詢 / ddavid

總覽項目: 發文 | 留言 | 暱稱
作者 ddavid 在 PTT [ DataScience ] 看板的留言(推文), 共231則
限定看板:DataScience
首頁
上一頁
1
2
3
下一頁
尾頁
[問題] AI CNN每一層是如何想出來的?
[ DataScience ]37 留言, 推噓總分: +8
作者: arfa0711 - 發表於 2020/09/16 23:40(5年前)
7Fddavid: DL也是AI會用到的技術,並沒有太大問題09/17 15:32
8Fddavid: 然後其實是先理解每一種層能做到什麼效果,理解自己要解的09/17 15:33
9Fddavid: 問題應該需要哪些效果,先有個預想以後才去猜想可以怎麼建09/17 15:33
10Fddavid: 構,提出一些可能的模型,初步測試後發現結果在什麼方面有09/17 15:34
11Fddavid: 不足跟缺失,才去修改或重建09/17 15:35
12Fddavid: 不是一開始就try try try,問題隨便大一點try一次可能就一09/17 15:35
13Fddavid: 星期以上,不可能沒有任何預想就從try開始的09/17 15:36
14Fddavid: 至於Paper沒詳細說明,有時是篇幅不夠,有時是有些組合本09/17 15:37
15Fddavid: 來就已經為人熟知09/17 15:37
16Fddavid: 去看以前的相關reference就解釋過了,所以他就只側重在自09/17 15:40
17Fddavid: 己有進一步改進的地方09/17 15:40
18Fddavid: 像是為何Conv->ReLU->Conv->ReLU->Pooling而不是09/17 15:41
19Fddavid: Conv->ReLU->Pooling循環兩次之類的,有些其實自己慢慢推09/17 15:42
20Fddavid: 敲每層的效果與副作用也可以得到概念09/17 15:43
[問題] 關於傳統ML的評估良劣標準
[ DataScience ]36 留言, 推噓總分: +4
作者: filialpiety - 發表於 2020/07/03 12:56(5年前)
3Fddavid: 這跟需求有關,標準不是唯一的07/03 13:55
4Fddavid: 你很惜字如金,猜得少沒關係,重視凡猜必中,就要重視07/03 13:57
5Fddavid: precision07/03 13:57
6Fddavid: 你要把所有嫌疑犯找出來,力求涵蓋真兇在內,找太多也沒關07/03 13:58
7Fddavid: 係,那就會看重Recall07/03 13:58
8Fddavid: 你覺得兩種都要並重就會選F1,並重卻又不等重就會選擇某個07/03 14:00
9Fddavid: 某個不平衡的F-score07/03 14:07
10Fddavid: 如果是Multi-label,花樣更多了XD07/03 14:08
11Fddavid: 然後這非常data/task dependant,你頂多實踐了以後,回頭07/03 14:10
12Fddavid: 用結果反向評估說「我們過度重視precision,結果在此資料07/03 14:11
13Fddavid: 下因為太難正確分類,導致Model過度偏向幾乎全部猜False」07/03 14:12
14Fddavid: 「太重視recall導致Model做了過多True猜測,結果篩除的07/03 14:14
15Fddavid: False instance過少,沒有實用價值」,這才去調整measure07/03 14:14
16Fddavid: 的比重07/03 14:15
27Fddavid: 新手從Overview那篇看起應該很OK,不過我懷疑你會不會連基07/05 20:19
28Fddavid: 礎的single-label classification都還不夠熟悉,看情況可07/05 20:20
29Fddavid: 以加減先補一下。因為multi-label的版本有很多是從single07/05 20:21
30Fddavid: -label的版本延伸而來的07/05 20:22
31Fddavid: 一些學校的ML上課投影片應該都可以翻翻吧,然後我隨手翻了07/06 16:25
32Fddavid: 一下:07/06 16:25
33Fddavid: https://bit.ly/2NVOLbr07/06 16:26
34Fddavid: 這篇整理該提到的基礎方法大致都有提到啦,但是對於各項評07/06 16:26
35Fddavid: 估標準沒太多著墨是個缺點,不過基礎的那些課程投影片裡面07/06 16:28
36Fddavid: 應該都有吧07/06 16:28
Re: [問題] 統計與資工在資料科學的差異
[ DataScience ]36 留言, 推噓總分: +12
作者: fsuhcikt1003 - 發表於 2020/06/05 13:32(5年前)
31Fddavid: 懂輪子怎麼跑起來的還是會有所幫助,真正頂尖的人最後都是06/07 01:36
32Fddavid: 兩者兼具,但不是所有人都非得到那個程度才可以開始做研究06/07 01:37
33Fddavid: ,這東西是可以漸進的,而且也可以停在自己覺得足夠的地方06/07 01:37
[問題] 怎麼確保資料分布跟真實世界相近 ?
[ DataScience ]11 留言, 推噓總分: +5
作者: sssh - 發表於 2020/05/27 10:14(5年前)
2Fddavid: 基本上這是一個有點弔詭的問題,如果你能驗證你的資料是否05/27 17:52
3Fddavid: 跟真實世界相同或相近,那表示你已經能夠知道真實世界資料05/27 17:53
4Fddavid: 的分佈了,那哪還需要Learning一個model來學習呢XD05/27 17:54
5Fddavid: 基本上你只能盡可能讓你收集資料的手段合理公平均勻,但是05/27 17:55
6Fddavid: 談不到什麼驗證05/27 17:55
[問題]評分的文字探勘模型
[ DataScience ]20 留言, 推噓總分: +6
作者: empireisme - 發表於 2020/03/07 17:55(6年前)
3Fddavid: 我怎麼覺得這問題定義就很奇怪03/08 04:08
4Fddavid: App的評分是評功能而不是評說明文字啊XD03/08 04:08
5Fddavid: 兩個App可以有超級接近的關鍵字集,因為做的是同一個功能03/08 04:09
6Fddavid: ,但是使用者評分可以天差地遠,因為實際用起來的好壞03/08 04:09
7Fddavid: 如果你要硬套 說明文字 -> 使用者評分 去做預測模型,可以03/08 04:10
8Fddavid: 當然是可以,但我只覺得會garbage in garbage out03/08 04:11
9Fddavid: 自己邏輯想想就知道,你用App會因為它的介紹文字寫比較好03/08 04:12
10Fddavid: 或者用了特定字眼就給它評比較高分嗎,不會吧。03/08 04:12
13Fddavid: 一般的text mining就做得到了吧,Bag-of-words做完套個合03/08 23:30
14Fddavid: 理的分類器就可以做個基本架構了03/08 23:31
15Fddavid: 但是你如果連Bag-of-words都還不知道,表示連text mining03/08 23:32
16Fddavid: 的基礎根本都還沒開始看,你要做的不是找model,是Google03/08 23:32
17Fddavid: text mining然後把基礎看一看03/08 23:32
[問題] 強AI的嚴謹定義?
[ DataScience ]33 留言, 推噓總分: +4
作者: dharma - 發表於 2020/03/04 16:44(6年前)
2Fddavid: 沒有,這東西本來就是從科學吵到哲學的問題,你只能說有些03/04 18:26
3Fddavid: 定義是比較多人拿來共同溝通使用,但沒有所謂唯一標準03/04 18:28
4Fddavid: 或者我這麼說吧:人類連自己的智慧到底是怎麼運作的都還沒03/04 18:29
5Fddavid: 真正全盤理解,那怎麼能絕對地定義一個人工智慧多接近智慧03/04 18:30
6Fddavid: 呢XD03/04 18:30
首頁
上一頁
1
2
3
下一頁
尾頁