一種語音同步驅(qū)動三維人臉口型與面部姿勢動畫的方法
本成果是獲得授權(quán)發(fā)明專利的專利成果(ZL 201310080656.4)。該成果公開了一種語音同步驅(qū)動三維人臉口型與面部姿勢動畫的方法,通過用戶輸入新的語音信息,經(jīng)過預(yù)處理之后,在虛擬人的人臉頭像上合成與語音同步的口型動畫和面部姿勢動畫。本發(fā)明具體包括兩個階段,在訓(xùn)練階段,通過KNN和HMM的混合模型實現(xiàn)語音可視化建模;在合成階段,通過用戶輸入新的語音信息,先進行語音信號的特征提取,再經(jīng)過KNN和HMM混合模型生成與語音信號相對應(yīng)的人臉面部姿勢和口型幀序列參數(shù),經(jīng)過平滑處理后,使用Xface軟件合成更加細(xì)膩、豐富的三維人臉動畫。本成果不僅具有重要的理論研究價值,而且在可視通信、虛擬會議、游戲娛樂和教學(xué)輔助等領(lǐng)域有著廣闊的應(yīng)用前景。
西南交通大學(xué)
2016-06-27