文本到語音(TTS)技術作為人機交互領域的一項關鍵技術,其發(fā)展經(jīng)歷了從基礎的音素拼接到復雜的統(tǒng)計參數(shù)合成,再到當前深度學習驅(qū)動的端到端神經(jīng)網(wǎng)絡合成的演變。目前主流的 TTS 技術包括以下幾種主流模式。


語音合成


1、基于統(tǒng)計參數(shù)的語音合成


隱馬爾可夫模型(HMM):通過學習語音數(shù)據(jù)建立音素與聲學特征統(tǒng)計關系來合成語音,模型簡潔、計算量小,但語音自然度欠佳。


深度神經(jīng)網(wǎng)絡(DNN)參數(shù)合成:利用 DNN 強大建模能力學習文本與聲學特征映射,語音質(zhì)量較 HMM 有提升,但訓練數(shù)據(jù)多、耗時長且對硬件要求高。


2、波形拼接語音合成


基于大語料庫的拼接合成:預先錄制大量語音片段建庫,依文本挑選拼接,自然度和音質(zhì)好,但需大存儲空間,對新詞處理有局限。


單元選擇拼接合成:更注重語音單元選擇與拼接策略,能更好處理韻律語調(diào),然構建維護語音庫需大量人力時間。


3、混合方法


HMM-DNN 混合模型:結合兩者優(yōu)勢,先 HMM 分析再 DNN 優(yōu)化聲學參數(shù),平衡質(zhì)量、自然度與計算成本。


拼接合成與參數(shù)合成混合:常見語音單元拼接,罕見單元參數(shù)合成,兼具兩者長處,擴大系統(tǒng)適應性。


4、端到端神經(jīng)網(wǎng)絡語音合成


Tacotron 系列:從文本直接生成聲學特征再轉語音波形,含注意力機制,但生成速度慢,處理長文本耗時。


FastSpeech 系列:采用非自回歸結構提高合成速度,后續(xù)版本不斷提升精度與自然度。


VALL-E 和 SPEAR-TTS:VALL-E 可依據(jù)少量語音樣本合成相似音色語音且跨語言;SPEAR-TTS 提升質(zhì)量與效率,降低復雜度與成本。