作者查詢 / ddavid
作者 ddavid 在 PTT [ DataScience ] 看板的留言(推文), 共231則
限定看板:DataScience
看板排序:
全部TypeMoon9289H-GAME4300GO3873GameDesign2664FATE_GO2575JinYong2090FBG1867AC_In1774nobunyaga1708LoL1533Wrestle1251StarCraft879Poker815Python767Detective650CGI-Game645C_Chat531Steam414Old-Games345Magic338DMM_GAMES336OverWatch317Little-Games303C_and_CPP266historia256Inference253DataScience231WorldCup222RealPlaying221Programming196TRPG182ToS118Olympics_ISG114Expansion07109Prob_Solve90PathofExile85Salary53eSports47marvel41BattleRoyale35PUBG33C_Sharp30BlizzHeroes26NDS26SLG26NTUCCG25Palmar_Drama23politics23LeafKey18basketballTW17KanColle16Web_Design15ck51st31614Gossiping14PhD14NTU-Fantasy11mud10AndroidDev6Baseball6CS_IGO6KS92-3196AHQ4Ahqwestdoor4MATLAB4Toy4b885060xx3cat3CVS3HotBloodYuan3joke3LGS3NTUEE108HW3NTUVGC3SuperIdol3XiangSheng32nd_NTUCCC2AC_Music2b90902xxx2ck55th3332CLHS-50-142DummyHistory2FJU-ACC90a2FJU-AM-902GAMEMUSIC2japanavgirls2JD_Lover2KS93-3042NBA2NCCU08_SW2NTUST-DT92-12OrangeRoad2SC-91-3012SCU_Talk2tabletennis2talk2Viator94Ding2About_Clubs1AngelPray1b89902xxx1b92902xxx1C_GameBoard1CCU_COMM_ANT1cksh83rd3031CMWang1CSMU-MED901Dynasty1G-REX1HatePolitics1Hunter1KS94-3101Mabinogi1MobileComm1NDHU-His961PuzzleDragon1sex1SOFTSTAR1specialman1Sportcenter1SYSOP1WomenTalk1<< 收起看板(120)
7F推: DL也是AI會用到的技術,並沒有太大問題09/17 15:32
8F→: 然後其實是先理解每一種層能做到什麼效果,理解自己要解的09/17 15:33
9F→: 問題應該需要哪些效果,先有個預想以後才去猜想可以怎麼建09/17 15:33
10F→: 構,提出一些可能的模型,初步測試後發現結果在什麼方面有09/17 15:34
11F→: 不足跟缺失,才去修改或重建09/17 15:35
12F→: 不是一開始就try try try,問題隨便大一點try一次可能就一09/17 15:35
13F→: 星期以上,不可能沒有任何預想就從try開始的09/17 15:36
14F→: 至於Paper沒詳細說明,有時是篇幅不夠,有時是有些組合本09/17 15:37
15F→: 來就已經為人熟知09/17 15:37
16F推: 去看以前的相關reference就解釋過了,所以他就只側重在自09/17 15:40
17F→: 己有進一步改進的地方09/17 15:40
18F→: 像是為何Conv->ReLU->Conv->ReLU->Pooling而不是09/17 15:41
19F→: Conv->ReLU->Pooling循環兩次之類的,有些其實自己慢慢推09/17 15:42
20F→: 敲每層的效果與副作用也可以得到概念09/17 15:43
3F推: 這跟需求有關,標準不是唯一的07/03 13:55
4F→: 你很惜字如金,猜得少沒關係,重視凡猜必中,就要重視07/03 13:57
5F→: precision07/03 13:57
6F→: 你要把所有嫌疑犯找出來,力求涵蓋真兇在內,找太多也沒關07/03 13:58
7F→: 係,那就會看重Recall07/03 13:58
8F→: 你覺得兩種都要並重就會選F1,並重卻又不等重就會選擇某個07/03 14:00
9F→: 某個不平衡的F-score07/03 14:07
10F→: 如果是Multi-label,花樣更多了XD07/03 14:08
11F→: 然後這非常data/task dependant,你頂多實踐了以後,回頭07/03 14:10
12F→: 用結果反向評估說「我們過度重視precision,結果在此資料07/03 14:11
13F→: 下因為太難正確分類,導致Model過度偏向幾乎全部猜False」07/03 14:12
14F→: 「太重視recall導致Model做了過多True猜測,結果篩除的07/03 14:14
15F→: False instance過少,沒有實用價值」,這才去調整measure07/03 14:14
16F→: 的比重07/03 14:15
27F推: 新手從Overview那篇看起應該很OK,不過我懷疑你會不會連基07/05 20:19
28F→: 礎的single-label classification都還不夠熟悉,看情況可07/05 20:20
29F→: 以加減先補一下。因為multi-label的版本有很多是從single07/05 20:21
30F→: -label的版本延伸而來的07/05 20:22
31F推: 一些學校的ML上課投影片應該都可以翻翻吧,然後我隨手翻了07/06 16:25
32F→: 一下:07/06 16:25
33F→: https://bit.ly/2NVOLbr07/06 16:26
34F→: 這篇整理該提到的基礎方法大致都有提到啦,但是對於各項評07/06 16:26
35F→: 估標準沒太多著墨是個缺點,不過基礎的那些課程投影片裡面07/06 16:28
36F→: 應該都有吧07/06 16:28
31F推: 懂輪子怎麼跑起來的還是會有所幫助,真正頂尖的人最後都是06/07 01:36
32F→: 兩者兼具,但不是所有人都非得到那個程度才可以開始做研究06/07 01:37
33F→: ,這東西是可以漸進的,而且也可以停在自己覺得足夠的地方06/07 01:37
2F推: 基本上這是一個有點弔詭的問題,如果你能驗證你的資料是否05/27 17:52
3F→: 跟真實世界相同或相近,那表示你已經能夠知道真實世界資料05/27 17:53
4F→: 的分佈了,那哪還需要Learning一個model來學習呢XD05/27 17:54
5F→: 基本上你只能盡可能讓你收集資料的手段合理公平均勻,但是05/27 17:55
6F→: 談不到什麼驗證05/27 17:55
3F推: 我怎麼覺得這問題定義就很奇怪03/08 04:08
4F→: App的評分是評功能而不是評說明文字啊XD03/08 04:08
5F→: 兩個App可以有超級接近的關鍵字集,因為做的是同一個功能03/08 04:09
6F→: ,但是使用者評分可以天差地遠,因為實際用起來的好壞03/08 04:09
7F→: 如果你要硬套 說明文字 -> 使用者評分 去做預測模型,可以03/08 04:10
8F→: 當然是可以,但我只覺得會garbage in garbage out03/08 04:11
9F→: 自己邏輯想想就知道,你用App會因為它的介紹文字寫比較好03/08 04:12
10F→: 或者用了特定字眼就給它評比較高分嗎,不會吧。03/08 04:12
13F推: 一般的text mining就做得到了吧,Bag-of-words做完套個合03/08 23:30
14F→: 理的分類器就可以做個基本架構了03/08 23:31
15F→: 但是你如果連Bag-of-words都還不知道,表示連text mining03/08 23:32
16F→: 的基礎根本都還沒開始看,你要做的不是找model,是Google03/08 23:32
17F→: text mining然後把基礎看一看03/08 23:32
2F→: 沒有,這東西本來就是從科學吵到哲學的問題,你只能說有些03/04 18:26
3F→: 定義是比較多人拿來共同溝通使用,但沒有所謂唯一標準03/04 18:28
4F→: 或者我這麼說吧:人類連自己的智慧到底是怎麼運作的都還沒03/04 18:29
5F→: 真正全盤理解,那怎麼能絕對地定義一個人工智慧多接近智慧03/04 18:30
6F→: 呢XD03/04 18:30