Re: [語音] 長文, RM1 轉好的語音檔在這

看板NTUEE_Speech作者 (Nice Guy)時間18年前 (2008/01/16 01:39), 編輯推噓0(001)
留言1則, 1人參與, 最新討論串2/2 (看更多)
學長我弄好了。 放在 /home/poseidons/RM1 裡面,目前的格式結構完全依照 Aurora2 設計 所以看過去會很像 :p 我把 feature 抽好放在 features_C0_01 (C0~C12, baseline, no logE) 和 features_logE_01 (C1~C12 plus logE, baseline, no C0) ind_trn109 -> training set, 3990 utterances ind_feb89 -> test set for Feb.89 eval, 300 utterances 分別加了8種 additive noise,以及 20dB ~ -5dB SNR, MIRS channel (和 Aurora2一樣,不過沒有通過G.712就是了) 接下來就拜託學長了~ ※ 引述《wazowski (ludan)》之銘言: : wav 檔在這個目錄: : /home/kenneth/Speech/corpora/RM1/wav : raw (headerless PCM) 檔在這個目錄: (16 kHz, mono, 16-bit, Intel byte order) : /home/kenneth/Speech/corpora/RM1/raw : 每個目錄底下各有五個子目錄, 對應到 training set 跟四個 test set : ind_trn109 -> training set, 3990 utterances : ind_feb89 -> test set for Feb.89 eval, 300 utterances, : 這是我們預定的 test set : 我挑了幾個檔案來聽, 大致上應該沒有問題... (不過你還是再挑幾個聽聽看) : 接下來修那幾個檔案, down-sampling, FaNT 就交給你了 : 等你那邊準備好(你的) baseline MFCC feature (clean train/test) 後麻煩跟我說 : 我要把 model training 跟 testing 的流程試跑一遍 : 因為現在要做 8 kHz 的版本, 之前的 initial model 不適用 : 還要研究一下 single-pass retraining 比較好, : 還是用 forced-aligned label 來 initialize 比較好 : 我兩種都會試試看 : 除了 initialization 以外, : 其他的 scripts 大致上應該都可以直接沿用 : 等我確定比較好的方法以後 : 就會把後面的 HERest 跟辨識算正確率全部用 script 串起來 : 到時候你把 feature list 餵進來就可以了 : 暫時先這樣 再討論~ -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 140.112.21.28

01/16 01:45, , 1F
ok, 我看看能不能趕在週五以前弄個初步的架構出來...
01/16 01:45, 1F
文章代碼(AID): #17ZE_j8x (NTUEE_Speech)
文章代碼(AID): #17ZE_j8x (NTUEE_Speech)