

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、GMM-HMM聲學(xué)模型在語(yǔ)音識(shí)別技術(shù)中取得了巨大的成功,但隨著語(yǔ)音數(shù)據(jù)量的增加,數(shù)據(jù)的復(fù)雜性也越來(lái)越大,訓(xùn)練時(shí)間也越來(lái)越長(zhǎng)。同時(shí),由于高斯混合模型(Gaussian Mixture Model,簡(jiǎn)稱GMM)是一個(gè)淺層模型,在復(fù)雜數(shù)據(jù)上的構(gòu)建模型能力明顯存在著不足,需要找到一種對(duì)數(shù)據(jù)建模能力更強(qiáng)的聲學(xué)建模方法,而深度神經(jīng)網(wǎng)絡(luò)在聲學(xué)模型建模上就具備了這種能力。此外,在特征提取方面,梅爾頻率倒譜系數(shù)(Mel-Frequency Cepstra
2、l Coefficients,簡(jiǎn)稱MFCC)是一種在語(yǔ)音識(shí)別過程廣泛使用的特征,但由于其計(jì)算時(shí)進(jìn)行了去相關(guān)或者降維處理,勢(shì)必造成部分信息的丟失。所以,本文還實(shí)驗(yàn)了對(duì)數(shù)域的Mel濾波器的輸出為聲學(xué)特征,即Filter-bank特征(簡(jiǎn)稱Fbank),F(xiàn)bank特征包含有更多的語(yǔ)音信息可用于之后的訓(xùn)練。
本文完成了一個(gè)深度神經(jīng)網(wǎng)絡(luò)模型語(yǔ)音識(shí)別系統(tǒng),主要工作包括:
(1)搭建Kaldi語(yǔ)音識(shí)別系統(tǒng)開發(fā)平臺(tái),編譯源代碼,配置
3、運(yùn)行環(huán)境,安裝CUDA并行計(jì)算架構(gòu),使用GPU加速深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程;
(2)在中文DNN語(yǔ)音識(shí)別系統(tǒng)開發(fā)平臺(tái)上訓(xùn)練單音子模型,并在此模型上優(yōu)化訓(xùn)練三音子模型,以三音子模型為基礎(chǔ)訓(xùn)練和測(cè)試中文深度神經(jīng)網(wǎng)絡(luò)模型識(shí)別性能;
(3)進(jìn)行聲學(xué)特征實(shí)驗(yàn),對(duì)分別使用MFCC特征和Fbank特征的DNN模型進(jìn)行訓(xùn)練解碼;對(duì)濾波器組加密處理,提取不同維度的Fbank特征,用于訓(xùn)練DNN模型;濾波器組相同的情況下,增加Fbank特征
4、幀數(shù),用于訓(xùn)練DNN模型。
實(shí)驗(yàn)結(jié)果顯示:DNN模型在有限語(yǔ)音訓(xùn)練數(shù)據(jù)條件下的詞錯(cuò)率WER(WordError Rate)與傳統(tǒng)GMM模型相比有12.05%的絕對(duì)降低(28.02%降至15.97%)以及43%的相對(duì)降低;采用Fbank特征與MFCC特征的DNN模型的詞錯(cuò)率WER相比有0.86%的絕對(duì)降低(15.97%降至15.11%)以及5.38%的相對(duì)降低;Fbank特征進(jìn)行濾波器組加密處理訓(xùn)練DNN模型的詞錯(cuò)率WER的最好
溫馨提示
- 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度神經(jīng)網(wǎng)絡(luò)的蒙古文語(yǔ)音識(shí)別系統(tǒng).pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的蒙古語(yǔ)語(yǔ)音識(shí)別系統(tǒng)聲學(xué)模型的研究.pdf
- 基于模糊神經(jīng)網(wǎng)絡(luò)語(yǔ)音識(shí)別系統(tǒng)的研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的橋牌識(shí)別系統(tǒng)研究.pdf
- 基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 深度神經(jīng)網(wǎng)絡(luò)音素識(shí)別系統(tǒng)及其隱藏層研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別模型研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的嵌入式語(yǔ)音識(shí)別系統(tǒng)研究.pdf
- 子空間高斯混合模型在中文語(yǔ)音識(shí)別系統(tǒng)中的實(shí)現(xiàn).pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的RASR語(yǔ)音識(shí)別的研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別系統(tǒng)的研究與改進(jìn).pdf
- 遺傳算法優(yōu)化的BP神經(jīng)網(wǎng)絡(luò)語(yǔ)音識(shí)別系統(tǒng)研究與LabVIEW實(shí)現(xiàn).pdf
- 量子神經(jīng)網(wǎng)絡(luò)及其在語(yǔ)音識(shí)別中的應(yīng)用.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的聲紋識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于神經(jīng)網(wǎng)絡(luò)的指紋識(shí)別系統(tǒng).pdf
- 基于神經(jīng)網(wǎng)絡(luò)與小波變換的語(yǔ)音識(shí)別系統(tǒng)研究.pdf
- 基于HMM與小波神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別系統(tǒng)研究.pdf
- 基于OAPSO的神經(jīng)網(wǎng)絡(luò)在語(yǔ)音情感識(shí)別中的應(yīng)用.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別系統(tǒng)的研究及實(shí)現(xiàn).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn).pdf
評(píng)論
0/150
提交評(píng)論