基于唇读技术的角色口型动画制作方法技术

技术编号:18863381 阅读:16 留言:0更新日期:2018-09-05 15:23
本发明专利技术涉及一种基于唇读技术的角色口型动画制作方法,属于计算机智能识别技术领域。利用唇读技术,解决角色口型动画中口型、表情、声音不一致的问题。本发明专利技术主要包括唇部检测与定位、唇动特征提取、唇语识别、角色交互控制。对于唇部检测与定位,采用ASM算法标定出人脸面部的68个关键点;对于唇动特征提取,使用鲁棒性较好的灰度能量图;对于唇语识别,运用动态时间规整算法。采用本发明专利技术的角色口型动画方法,可以使动画创作人员在角色动画制作过程中,通过唇读技术实现对角色口型的控制,这种口型动画制作方法能够减少口型动画制作复杂度与工作量,提高动画制作效率。

Lip animation technology based on lip reading technology

The invention relates to a method for making character mouth animation based on lip reading technology, which belongs to the field of computer intelligent recognition technology. Lip reading technology is used to solve the problem of inconsistency between mouth shape, expression and voice in character animation. The invention mainly comprises lip detection and location, lip movement feature extraction, lip language recognition and role interaction control. For lip detection and localization, ASM algorithm is used to calibrate 68 key points of face; for lip movement feature extraction, gray-scale energy map with good robustness is used; for lip recognition, dynamic time warping algorithm is used. By adopting the method of character mouth animation, the animator can control the character mouth by lip-reading technology in the process of character animation production. The method can reduce the complexity and workload of mouth animation production and improve the efficiency of animation production.

【技术实现步骤摘要】
基于唇读技术的角色口型动画制作方法
本专利技术涉及计算机智能识别
,特别涉及一种图像处理与角色口型动画制作相结合的基于唇读技术的角色口型动画制作方法。根据识别人物的唇动变化,完成角色口型动画制作。
技术介绍
唇读(lip-reading/speech-reading),是指通过观察说话者的口型变化,“读出”或“部分读出”其所说的内容,唇读技术源于听力弱者和听力障碍者学习、了解正常人语言表达的一种技巧。唇读技术研究涉及多个领域,包括人工智能、知识工程、模式识别、图像处理、自然语言理解等。随着自动语音识别、人机自然交互和计算机视觉技术的迅速发展,唇读技术不在仅仅是改善语音识别率的辅助手段,唇读作为新的人体生物特征、新的人机接口、新的编码方式、新的反恐手段,在人们生活中发挥着越来越重要的作用。在三维角色动画制作中,面部动画最为关键,只有当表情、口型、声音三者一致时,角色动画看起来才会更加真实自然。在欧美的动画中,为了做到表情、口型、声音的对应,传统的方法先请配音演员录音,然后让动画师捕捉配音演员说话时的表情神采与口型,并以此设定角色形象。后来随着计算机图形图像技术的快速发展,欧美开始使用建立标准英文口型发音系统的方法来创作口型动画。而在国内,则基本上采用关键帧制作法,只把台词中夸张的口型部分做出来,其他部分则含糊带过,这使得国内动画中的角色口型与台词的契合度很低,角色面部动画生。计算机智能识别技术的日渐成熟,使得动画制作技术不断向智能化、便捷化发展,因此,对于角色口型动画而言,也需要智能化的制作方法来减轻动画制作人员繁重的、重复的工作,减少对制作人员专业与经验的高要求,简单易操作的动画制作工具成为动画生产的必然需求。
技术实现思路
本专利技术的目的在于提供一种基于唇读技术的角色口型动画制作方法,解决了现有技术存在的角色口型动画中口型、表情、声音不一致的问题。本专利技术能够让动画制作人员快捷、轻松的制作出高品质的口型动画,实现口型、配音、表情的一致。制作人员在口型动画制作过程中,通过唇读技术,实现与角色的实时交互,实现口型与配音的一致。本专利技术的上述目的通过以下技术方案实现:基于唇读技术的角色口型动画制作方法,包括以下步骤:S1:通过摄像头拾取人脸视频信号,获取人脸图像序列;S2:从人脸图像中检测与定位出唇部位置,唇部检测与定位采用主动形状模型法ASM,步骤如下:S21:训练:构建形状模型,首先手动标记训练样本的脸部特征点,然后对特征进行归一化、对齐、PCA处理,最后为每个特征点构建局部特征,选取梯度特征为局部特征;S22:搜索:首先计算嘴部的位置,对齐人脸,然后根据马氏距离匹配局部特征点;S3:从标定出的唇部位置,提取包含唇动特征的特征值序列,唇动特征提取步骤如下:S31:求取唇动图像序列的灰度图像;S32:求取灰度能量图;S33:对灰度能量图进行小波离散变换,分解尺度为3,采用db4小波;S34:选取低频近似分量作为候选特征值,对候选特征值进行重采样处理,得到特征序列值;S4:根据唇动特征值进行唇语识别,唇语识别采用动态时间规整方法,步骤如下:S41:比较待比较模板的长度,如果长度差别大于阈值,则返回匹配失败;S42:根据待比较模板的长度,将匹配区域划分为两段或三段;S43:分别对每一段区域进行匹配;S44:计算总累计距离;S5:根据唇语识别结果,控制角色口型动画。进一步,步骤S21所述的训练的过程包括以下步骤:S211:搜集N个训练样本;S212:手动记录下每个训练样本中的k个关键特征点,本方法k值为18,为唇部轮廓的关键点;S213:构建训练集的形状向量,将一幅图中标定的k个关键特征点组成一个形状向量,式中,表示第i个训练样本上第j个特征点的坐标,n表示训练样本的个数;S214:形状归一化,采用Procrustes方法进行点分布模型对齐操作;S215:将对齐后的形状向量进行PCA处理;S216:为每个特征点构建局部特征。进一步:步骤S22所述的搜索的过程包括以下步骤:S221:计算每个特征点的新位置,初始模型为:X=M(s,θ)[ai]+Xc式中,M为旋转缩放矩阵,s表示缩放、θ表示旋转、Xc表示位移,选取马氏距离最小的特征点作为新位置;S222:更新参数,直至迭代次数达到指点阈值;Xc=Xc+wtdXc,Yc=Yc+wtdYc,θ=θ+wθdθ,s=s(1+wsds),b=b+wbdb式中,wt,wθ,ws,wb为控制参数变化的权值。进一步,步骤S32所述的求取灰度能量图的步骤如下:S321:根据步骤S2标定的唇部位置,从人脸图像序列中截取唇部图像,得到唇动序列图像,然后求取灰度唇动图像序列,计算公式为:Gray=(R*77+G*151+B*28)/256式中,R、G、B分别表示红、绿、蓝通道的像素值;S322:计算灰度能量,方法为计算灰度唇部序列的平均灰度图,公式为:式中I(x,y,i)为第i帧图像像素点(x,y)的灰度值,N为图像帧数。进一步,步骤S214所述的采用Procrustes方法进行点分布模型对齐操作,其中,分布模型对齐包括以下步骤:S2141:将训练集中的所有唇部模型对齐到第一个唇部模型;S2142:计算平均唇部模型S2143:将所有唇部模型对齐到平均唇部模型S2143:重复步骤S2142与步骤S2143直至收敛。进一步,步骤S215所述的将对齐后的形状向量进行PCA处理,其中,PCA处理包括以下步骤:S2151:计算平均形状向量,计算公式为:式中,n表示特征点总数,ai为第i个特征点的形状向量S2152:计算协方差矩阵,计算公式为:式中,n表示特征点总数,ai为第i个特征点的形状向量,为平局形状向量S2153:计算协方差矩阵的特征值,并将其按从大到小排列,训练向量使用线性模型表示,为:式中,Ps为投影矩阵,bs为参数向量,进一步,步骤S216所述的为每个特征点构建局部特征,其中,局部特征构建包括以下步骤:S2161:计算特征点的局部纹理,取其平均值,公式为:式中,n表示特征点总数,,gij表示第i个特征点的局部纹理S2162:计算方差,公式为:式中,n表示特征点总数,gij表示第i个特征点的局部纹理,为第i个特征点的局部纹理均值。本专利技术的有益效果在于:1.本专利技术采用基于唇读技术的角色口型动画制作方法,可以是动画师通过自然语言实现对角色口型动画的制作,这种方法不需要昂贵的动作捕捉设备,直接使用自然语言,控制角色口型动画。2.本专利技术使用主动形状模型法ASM确定唇部轮廓,从唇部灰度能量图中提取唇动特征值向量,并使用动态时间规整方法DTW来识别唇语,最终实现对角色口型动画的控制。该方法是一种高效的、鲁棒的唇语识别方法,ASM算法能够准确提取唇部区域,灰度能量图能够有效平滑去噪,以多尺度小波变换后的低频近似分量作为特征值在降低特征向量纬度的同时能够获得更好的识别效果。3.本专利技术具有完备的口型--发音库,并通过嵌入式脚本与Maya软件相连,降低了口型动画制作的难度与复杂度,将动画师从繁杂重复的口型调试工作中解放出来,将更多的精力投入到动画影视作品的创意中。附图说明此处所说明的附图用来提供对本专利技术的进一步理解,构成本申请的一部分,本专利技术的示意性实例及其说明用于解释本专利技术,并不构成对本专利技术的不当本文档来自技高网
...

【技术保护点】
1.一种基于唇读技术的角色口型动画制作方法,其特征在于:包括以下步骤:S1:通过摄像头拾取人脸视频信号,获取人脸图像序列;S2:从人脸图像中检测与定位出唇部位置,唇部检测与定位采用主动形状模型法ASM,步骤如下:S21:训练:构建形状模型,首先手动标记训练样本的脸部特征点,然后对特征进行归一化、对齐、PCA处理,最后为每个特征点构建局部特征,局部特征选取梯度特征;S22:搜索:首先计算嘴部的位置,对齐人脸,然后根据马氏距离匹配局部特征点;S3:从标定出的唇部位置,提取包含唇动特征的特征值序列,唇动特征提取步骤如下:S31:求取唇动图像序列的灰度图像;S32:求取灰度能量图;S33:对灰度能量图进行小波离散变换,分解尺度为3,采用db4小波;S34:选取低频近似分量作为候选特征值,对候选特征值进行重采样处理,得到特征序列值;S4:根据唇动特征值进行唇语识别,唇语识别采用动态时间规整方法,步骤如下:S41:比较待比较模板的长度,如果长度差别大于阈值,则返回匹配失败;S42:根据待比较模板的长度,将匹配区域划分为两段或三段;S43:分别对每一段区域进行匹配;S44:计算总累计距离;S5:根据唇语识别结果,控制角色口型动画。...

【技术特征摘要】
1.一种基于唇读技术的角色口型动画制作方法,其特征在于:包括以下步骤:S1:通过摄像头拾取人脸视频信号,获取人脸图像序列;S2:从人脸图像中检测与定位出唇部位置,唇部检测与定位采用主动形状模型法ASM,步骤如下:S21:训练:构建形状模型,首先手动标记训练样本的脸部特征点,然后对特征进行归一化、对齐、PCA处理,最后为每个特征点构建局部特征,局部特征选取梯度特征;S22:搜索:首先计算嘴部的位置,对齐人脸,然后根据马氏距离匹配局部特征点;S3:从标定出的唇部位置,提取包含唇动特征的特征值序列,唇动特征提取步骤如下:S31:求取唇动图像序列的灰度图像;S32:求取灰度能量图;S33:对灰度能量图进行小波离散变换,分解尺度为3,采用db4小波;S34:选取低频近似分量作为候选特征值,对候选特征值进行重采样处理,得到特征序列值;S4:根据唇动特征值进行唇语识别,唇语识别采用动态时间规整方法,步骤如下:S41:比较待比较模板的长度,如果长度差别大于阈值,则返回匹配失败;S42:根据待比较模板的长度,将匹配区域划分为两段或三段;S43:分别对每一段区域进行匹配;S44:计算总累计距离;S5:根据唇语识别结果,控制角色口型动画。2.根据权利要求1所述的基于唇读技术的角色口型动画制作方法,其特征在于:步骤S21所述的训练的过程包括以下步骤:S211:搜集N个训练样本;S212:手动记录下每个训练样本中的k个关键特征点,本方法k值为18,为唇部轮廓的关键点;S213:构建训练集的形状向量,将一幅图中标定的k个关键特征点组成一个形状向量,式中,表示第i个训练样本上第j个特征点的坐标,n表示训练样本的个数;S214:形状归一化,采用Procrustes方法进行点分布模型对齐操作;S215:将对齐后的形状向量进行PCA处理;S216:为每个特征点构建局部特征。3.根据权利要求1所述的基于唇读技术的角色口型动画制作方法,其特征在于:步骤S22所述的搜索的过程包括以下步骤:S221:计算每个特征点的新位置,初始模型为:X=M(s,θ)[ai]+...

【专利技术属性】
技术研发人员:朱妹丽
申请(专利权)人:吉林动画学院
类型:发明
国别省市:吉林,22

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1