作者查詢 / kaltu
作者 kaltu 在 PTT [ DataScience ] 看板的留言(推文), 共64則
限定看板:DataScience
看板排序:
全部C_Chat11308Gossiping7007WomenTalk4700PC_Shopping3169MobileComm2711StupidClown1709marvel1535movie1317Tech_Job1234joke1232Japan_Travel972Lifeismoney838e-shopping590creditcard352NIHONGO293HatePolitics242Wargaming135C_ChatBM123Stock92Soft_Job85DataScience64AC_In62Military46Comic39book37Storage_Zone35L_LifeJob33PlayStation32Eng-Class26LoL26Aviation24Baseball21nCoV201921Steam21AfterPhD19TWvoice17gay15NSwitch12PokemonGO12Boy-Girl10Audiophile9nb-shopping9CFantasy8CYCU_Talk8NBA8part-time8PublicIssue8specialman8Sub_DigiTech8AI_Art7Digitalhome7Kaohsiung7Minecraft7AVEncode6car6ChineseMed6Ind-travel6Kyoto_Ani6biker5GO5Aves4Broad_Band4marriage4Sub_GOnline4TaiwanDrama4Windows4Women_Picket4BabyMother3BeautySalon3Doraemon3gallantry3hardware3KoreaStar3LCD3TaichungBun3Teacher3Vocaloid3YOLO3C_BOO2C_GenreBoard2ComGame-Plan2fastfood2FFXIV2LAW2Marginalman2medstudent2MH2MRT2ONE_PIECE2paranormal2rent-exp2VAPE2Violation2Android1ask1AskBoard1AudioPlayer1Conan1DummyHistory1Folklore1Gov_owned1Hiking1KoreanPop1L_HappyLivin1LightNovel1LoveLive_Sip1MapleStoryM1MenTalk1MercStoria1Mizuki_Nana1PublicServan1Salary1transgender1Translation1True-Escape1TY_Research1VISA1Warfare1youtuber1<< 收起看板(119)
20F推: 梯度消失也很難消失得這麼徹底到好像完全沒做back propagat03/18 07:06
21F→: ion一樣03/18 07:06
22F→: 壞的這麼漂亮的狀況我投bug一票03/18 07:06
2F推: 影像spatial data在機器學習上縮放旋轉本來就是很常用的dat06/14 11:01
3F→: a augmentation06/14 11:01
4F→: 通常model也會強調這部分的robustness06/14 11:01
5F→: 音樂的話,現在主流其實還是基於傅立葉的手法,例如 Shazam06/14 11:01
6F→: 是用聲譜去做 fingerprinting06/14 11:01
7F→: YouTube很有可能在商業上跟Shazam合作使用同一份fingerprin06/14 11:01
8F→: t庫06/14 11:01
9F→: 那你從聲譜的原理上就看得出來這是對音高敏感的技術06/14 11:01
10F推: 用聲譜的優點是音樂這種temporal data,在Y軸上不同頻率如06/14 11:18
11F→: 果因為等化器特效、使用者麥克風和場所喇叭的頻率響應、現06/14 11:18
12F→: 場的噪音等因素06/14 11:18
13F→: 而使得某些頻率被遮蔽,那X軸拉長了依然可以match06/14 11:18
14F→: 如果要讓Y軸不只頻率遮蔽還要加入對頻率平移(調高調低)的ro06/14 11:18
15F→: bustness06/14 11:18
16F→: 感覺是變成除了在X軸做sliding window search之外對Y軸也要06/14 11:18
17F→: 做一遍?06/14 11:18
6F推: 我覺得決定要用哪種conv的重點是看你希望抽出來的feature是04/04 01:45
7F→: 幾D04/04 01:45
8F→: 醫學影像的3D,例如MRI或CT斷層掃出來就是真3D volume HxWx04/04 01:45
9F→: D,這個時候因為預期的feature會是3D所以就很常用3D卷積保04/04 01:45
10F→: 留D軸的空間資訊04/04 01:45
11F→: 所以如果你覺得你的應用,第三軸的空間關係是重要feature的04/04 01:45
12F→: 話,使用3D卷積不是不行04/04 01:45
13F→: 順帶一提convXD的X代表的是輸出的shape是filter個X維度的X+04/04 01:45
14F→: 1維張量04/04 01:45
15F→: 像RGB影像做conv2D,kernel其實是3D的,第一層設定5x5 filt04/04 01:45
16F→: er其實是5x5x304/04 01:45
17F→: 舉例來說有些大量filter的conv層後面會有1x1卷積,意思是1x04/04 01:45
18F→: 1x256之類的把前面長太多的filter壓扁回來04/04 01:45
20F推: https://keras.io/examples/imdb_cnn_lstm/03/20 00:37
14F推: 圖靈測試也只是測試,不是嚴謹(邏輯上正確,有人反對也沒03/06 17:49
15F→: 差)的定義03/06 17:50
16F→: 就算再複雜的圖靈測試,有人還是可以用中文房間原則認為那03/06 17:50
17F→: 東西不是「智慧」03/06 17:50
18F→: 而且圖靈測試的根基是測試者主觀認為這點就很有問題,歧視03/06 17:50
19F→: 是人類天生就具有的能力,就算一個測試對象的確表現出完整03/06 17:50
20F→: 的智慧,依然有與智慧無關的特徵可以在圖靈測試中分辨出某03/06 17:50
21F→: 個答案是某個來源03/06 17:50
22F→: 例如就算我們放兩個人類進去圖靈測試的參與者一樣有自己的03/06 17:50
23F→: 辦法感覺出誰是誰然後根據自己的喜好選擇03/06 17:50
24F→: 圖靈測試的本質只是個loss function03/06 17:53
25F→: 只能回答受測者之間的差異,不能檢測智慧03/06 17:53
26F→: 要讓loss正常運作,我們需要更多的訓練資料,只有人類一個03/06 17:53
27F→: 物種的智慧樣本不可能讓圖靈測試work03/06 17:53
31F→: 9700k+2080Ti用650w是剛好11/15 06:17
32F→: 真的就是字面上的剛剛好,如果你還要加四顆風扇,之後會加R11/15 06:17
33F→: AM加硬碟的話,你的電源負載有可能會超過八九成11/15 06:17
34F→: 短期下來沒問題,但是如果你是拿來沒日沒夜滿載跑training11/15 06:17
35F→: ,那供電線路在幾乎滿載地狀況下老化的速度會加速11/15 06:17
36F→: 有可能一年後電源就沒辦法輸出足瓦了11/15 06:17
37F→: 然後除非你mount網路硬碟,不然Dataset比較貴的預處理都先11/15 06:17
38F→: 做起來放不on-the-fly的話,展開體積很驚人,幾乎保證你會11/15 06:17
39F→: 插一堆硬碟上去11/15 06:17
3F→: 統計真的很多好玩的縮寫,PDF, PRC, ROC05/19 12:30
9F→: 應屆畢業生要求工作經歷2年以上04/29 00:14
4F推: 印象中有個dataset搜尋引擎01/19 16:58
5F→: 不然就kaggle之類的各種challenge網站下載他們的01/19 16:58
6F→: 醫學影像很多公開的像BraTS、ProstateX01/19 16:59
7F→: 做不到,shape一定要一樣不能動態12/20 16:31