当前位置: 首页 > 专利查询>四川大学专利>正文

一种三维人脸动画的控制方法技术

技术编号:4305326 阅读:284 留言:0更新日期:2012-04-11 18:40
本发明专利技术公开了一种三维人脸动画的控制方法,其特征在于,包括以下步骤:获取三维人脸特征网络模型;对所得的三维人脸特征网络模型进行功能区划分;根据区域划分设置运动控制点并计算控制点对三维人脸特征模型运动的影响;通过驱动控制点的运动,来驱动三维人脸特征网络模型的运动,模拟真实的脸部运动。该方法能克服现有技术所存在的缺陷,能根据各种表情需要对三维人脸模型变形,使三维人脸表现出真实感强的表情动画。

【技术实现步骤摘要】

本专利技术涉及三维动画
,具体涉及。
技术介绍
三维人脸表情动画技术的开创性工作是Parke在20世纪70年代做的,由于真实感人脸建模及其动画技术具有很强的应用和研究价值,之后的30多年,全世界优秀的研究人员不断加入到这一研究领域,使三维人脸建模和动画技术得到显著的发展,但是由于人脸结构的复杂性和人脸表情的丰富性,目前所研究的3D人脸表情动画虚拟场景要么比较初级,其真实感、可信度、丰富性均较差;要么真实感强但计算量巨大,无法实时。以下是现有技术中所采用的动画方法技术。 关键帧动画关键帧动画是由熟练的动画师设计卡通片中的关键画面,也就是所谓的关键帧,然后利用计算机插值生成中间帧。所有影响画面图的参数都可成为关键帧的参数,如位置、旋转角、纹理等到参数。另外一种动画设置方法是样条驱动动画。在这种方法中,用户采用交互方式指定物体运动的轨迹样条。关键帧动画的最主要的缺点是由于关键帧之间的平滑过渡,导致精度的损失。另外,由于物体朝向一般是由Euler角来表示,因此对于物体朝向又简单化为三个欧拉角的插值问题,但由于欧拉角表示的局限性,导致旋转的不均匀和自由丧失。 物体变形动画该技术指对于由多边形表示的物体,物体变形可通过移动其多边形顶点来达到。目前已有多种技术来实现这种变形方法。比如Barr提出的整体和局变形方法、FFD(自由变形)方法以及Coquillart提出的拓广FFD方法等等。其中用得最多的是基于FFD变形的方法,该方法并不对物体直接进行变形,而是对物体所嵌入的空间进行变形。对于由这些方法产生的多边形之间渐变,则一般采用顶点之间的线性插值,即顶点位置的keyframe插值方法。但是该方法生成的多边形有可能产生自交和不应有的收缩。于是,人们又提出基于物理的二维形状渐变方法,即把形状看成由电线框构,然后求解所需能量最小的形变解。物体变形动画的参数选择以及变形过程仍然需要很多的人工参于,并且对于复杂变形的模拟仍然不是很理想。由于人脸不好嵌入FFD的外框,因此该方法仍然不能用来控制人脸动画。 过程动画过程动画指的是动画中物体的运动或变形由用一个过程来描述。在柔性物体的动画中,物体的形变是任意的,可由动画师任意控制的;在过程动画中,物体的变形则基于一定的数学模型或物理规律。最简单的过程动画是用一个数学模型去控制物体的几何形状和运动,如水波随风的运动。较复杂的如包括物体的变形、弹性理论、动力学、碰撞检测在内的物体的运动。另一类过程动画为粒子和群体的动画。该方法用来做人脸动画具有不避免甚至是不可攻破的复杂性。因为我们首先要分析出人脸结构,再分析人脸动机理,再抽象数学公式来进行模拟,由于这每一步目前都还没有完全成熟。所以该方法运用于人脸动画动画还有很长的路。 关节动画和人体动画该方法主要是针对人体和动物角色的。该类动画在脸部表情动画模拟方面,Bergeron提出用数字化仪将人脸的各种表情输入到计算机中,然后用这些表情的线性组合来产生新的脸部表情。另外,Waters提出了一个基FACS的脸部表情动画模拟方法,它是由一组肌肉模型组成,把人的脸用多边形网格来表示,并用肌肉向量来控制人脸的变形。这种方法的特别点在于可以用一定的数量参数对模的特征肌肉进行控制,并且不针对特定的脸部拓扑结构。为了产生一些更真实的表情,Reeves、Guenter、pighin等提出了一些针对肌肉模型的改进,但是这些方法,都需要昂贵的设备做支撑。 基于物理模型的动画顾名思义,该方法是对模拟对象的物理属性进行分析,然后再做数学建模来准确模拟物体运动,从而实现逼真的运效果。但是这种方法目前最主要是在刚体运动模拟、塑性物体变形运动以及流体运动模拟方面有比较好的效果。而且,该技术的计算机复杂度比较高。 基于MPEG4的FAP(facial animaiton parameter)人脸动画方法该方法的大意是把人脸分为多个(MPEG4标准规定了68个)FAP特征控制区域,每一个区域有一个特征点,当特征点的位置被改变时,对于区域内的其点则采用某种插值方式扩散过去,如线性插值,余弦插值等。通过对这些区域进行参数控制来实现各种各样的表情。该方法的特点是简单易行,但是简单易行,但是由于有大量的参数需要人来进行手工进行控制,并且对于不太熟练的动画师来控制来讲,做出来的表情容易失真,而且,它对于一些细微的表情也不能做到精确的模拟。 基于肌肉向量的动画控制方法1987年,Waters提出了一种基于肌肉向量的动画模拟方法,该方法的主要思想是首先对人脸肌肉的运动进行分析,然后利用数建模对肌肉的运动情况进行模拟。根据三维人脸解剖学,把网格模型对真实人脸进行模拟,然后对网格模型进行肌肉运动模拟从而做出各种各样的表情。该方法模拟了两种人脸肌肉(线性肌和拓约肌),其中括约肌主要用来模拟圆形肌肉(比如嘴巴和眼睛),线性肌用于模拟脸部的其区域。该方法的优点在于,计算机复杂度不是很高,控制起来也比较方便。但是它仍然不能做出比较细微的表情,比如嘟嘴和半眨的微笑闭眼效果,这个方法的模拟是不成功的。 体塑化模型的动画控制方法体塑化模型是指,模型的构造不是网格,而是近于实心化的,这是一个本质的区域。前面的几种方法都是在网格层面或者说是单表皮层面进行控制的,它们的模拟精度不可能像体塑化那么准确。对于这样的模型,比如基于物理的人脸肌肉模型,它首先是在三维人脸模型上模拟人脸配置好各种各样的肌肉,然后利用物理的方法来对肌肉进行数学建模,这样就可以利用肌肉移动来生成各种各样的表情。但是由于模型是实心的,需要计算的点太多,如果采用实时计算点位移的方式,就不可能达到实时性的要求。如果表情预存起来,采用插值方式生成中间表情,又会损失动画效果。
技术实现思路
本专利技术所要解决的问题是如何提供,该方法能克服现有技术所存在的缺陷,能根据各种表情需要对三维人脸模型变形,使三维人脸表现出真实感强的表情动画。 本专利技术所提出的技术问题是这样解决的提供,其特征在于,包括以下步骤 步骤1获取三维人脸特征网络模型 将具体的三维人脸特征信息网格化到基准三维人脸模型; 步骤2对步骤1所得的三维人脸特征网络模型进行功能区划分 对人脸肌肉进行受力分析后根据各功能区的运动特性进行区域划分,划分为扇形区域、椭球形区域、下巴和眼睛,其中椭球形区域对应嘴巴周围,用来生成嘴巴所能产生的各种形状,扇形区域配置在人脸其他区域,用来生成各种普通的人脸动作; 步骤3根据区域划分设置运动控制点并计算控制点对三维人脸特征模型运动的影响 ①扇形区域参考弹簧模型,给扇形区域内的每个点设定一个质量M、一个阻尼系数D,xi是区域内的任意点,mjAmjI构成区域配置向量, 和Rj用来确定区域的大小,lji是xi到mjA的距离,扇形区域的拉扯方向为 在这个区域里面的所有点都会由于区域内的向量 的拉动而产生移动,但是离 越远的点,移动就越小,再设置一个长度因子和角度因子 扇形区域内的点的受力公式为 其中a是扇形区域的收缩率,而xi是影响区域内的点,且影响因子函数θ1和θ2为 其中 根据牛顿定律,得到每个点的力平衡公式 本文档来自技高网
...

【技术保护点】
一种三维人脸动画的控制方法,其特征在于,包括以下步骤:步骤1获取三维人脸特征网络模型将具体的三维人脸特征信息网格化到基准三维人脸模型,得到三维人脸特征网络模型;步骤2对步骤1所得的三维人脸特征网络模型进行功能区划分对人脸肌肉进行受力分析后根据各功能区的运动特性进行区域划分,划分为扇形区域、椭球形区域、下巴和眼睛,其中椭球形区域对应嘴巴周围,用来生成嘴巴所能产生的各种形状,扇形区域配置在人脸其他区域,用来生成各种普通的人脸动作;步骤3根据区域划分设置运动控制点并计算控制点对三维一个点P,它位移后的点的坐标p′↓[i]为:p′=R(θ)*p*weight;④眼睛:眼睛的运动包括眨眼和眼球的转动,其中眼球的动作采用旋转的方法,以眼球中心cen做为放心转中心,旋转方法为:P′=p*R↓[x](α)*R↓[y](β)其中R↓[x](α),R↓[y](β)分别是X和Y方向上的旋转矩阵,α和β是旋转方向在X和Y方向上的分量;眨眼的动作采用分层控制的方法,选中上眼皮的几层点,把每一竖排点做为一个区域l↓[i](i=1,2………13),共13个区域,每一个区域的最下面一层点做为控制点p↓[i](i=1,2………13),共13个控制,每一个控制点又对应下眼皮上的一个点d↓[i](i=1,2………13)做为其目的地,定义了u↓[i]=(p↓[i]-d↓[i])/1024(i=1,2........13),对于控制点p↓[i]移动后的坐标p′↓[i]为:p′↓[i]=p↓[i]+u↓[i]*val其中val为眨眼控制变量;步骤4设置基本口型,根据时间点来播放相对应的口形:①根据口形文件,载入各个基本口形;②读取当前时间应该播放的口形号;③根据口形号读取各条肌肉的contraction值;④如果设置了当前应该播放的表情,则利用表情、口形合成公式,生成各条肌肉的对应contraction值,否则跳过;⑤根据各条肌肉的类型调用各自对应的动画方法进行动画操作;⑥利用插值公式生成插值口形;⑦转到步骤④播放插值口形;⑧如果到了下一个口形的播放时间,就转而到步骤②;步骤5设置基本表情,设计表情合成并视频驱动:首先对三维人脸特征模型做动动检测,得到特征点位移,然后利用这些特征点的位移来驱动三维人脸模型,对特征点为x↓[i],它对应三维人脸特征模型上的肌肉为m,x↓[i]产生位移,对应肌肉m的收缩率为α↓[m]:α↓[m]=*‖Δx↓[i]‖‖Δx′′...

【技术特征摘要】

【专利技术属性】
技术研发人员:章毅王平安郑伯川吕建成张蕾彭德中于佳丽张海仙
申请(专利权)人:四川大学
类型:发明
国别省市:90[中国|成都]

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1
相关领域技术
  • 暂无相关专利