The invention discloses an adaptive garment animation modeling method based on visual perception, which comprises: Step 1: Construction of the garment visual model significantly with human characteristics, the depth of application of convolutional neural network learning and extract garment animation of each image features of different levels of abstraction, and from these features and the real eye data in depth a visual saliency model; step 2: clothing division Yu Jianmo, visual saliency model step 1 has been constructed based on the prediction of visual saliency map garment animation image, extract the clothing area attention, filtering the garment deformation, and combined with the camera motion information and physical deformation information, by setting the detail simulation factor subregional modeling of clothing; step 3: to construct an adaptive model of garment visual perception and driving simulation, adaptive Yu Jianmo clothing partition multi precision grid technology, details of the high precision modeling simulation factor of the regional high, the details are low precision modeling simulation with low area, on the basis of dynamic calculation and collision detection, construct the system of visual lifelike animation clothing.
【技术实现步骤摘要】
基于视觉感知的自适应服装动画建模方法
本专利技术属于虚拟现实和计算机图形学
,具体涉及一种基于视觉感知的自适应服装动画建模方法。
技术介绍
服装动画模拟效果的视觉逼真性,一直是研究者们致力工作的目标。为了得到细腻的服装效果,通常需要对服装模型进行高精度的建模,以表现其丰富的变形细节。但高精度模型有近万个图元,这就需要进行大量的碰撞检测和大规模动力学方程求解,从而花费高昂的计算代价,降低系统性能。为了解决上述问题,一种有效的解决方案是对服装进行自适应多精度建模,现有方法主要包括:基于变形状态驱动的建模法,即根据动画过程中布料状态估算服装可能出现的高变形区和低变形区,不同变形程度区采用不同精度的模型;基于视点位置驱动的建模法,即根据摄像机的视点信息,对位于摄像机镜头内和距离摄像机镜头较近的点或面片进行精化,而位于镜头外或背对镜头的点或面片进行粗化。这些方法可以在一定程度上降低计算代价,并保持变形细节。但已有方法存在的共性问题是:在动画建模时,只考虑服装运动的客观真实性,而完全忽略了人眼主观作用对感知逼真性的影响。事实上,人类视觉系统通过从外界获取图像信息传送入大脑,通过大脑对图像信息进行分析和理解,然后获得对外界信息的感知。视觉感知的敏感度不仅受到光强度、波长的影响,还与记忆与经验等更高层次的心理因素有关。因此,人类视觉系统对于服装不同区域变形的感知将会受到诸多因素的影响;如果单纯考虑构建物理真实的动画模型或者提高服装模型的精度,而完全忽略视觉敏感度对感知真实性的影响,则难以保证最终生成的服装动画的视觉逼真性。
技术实现思路
本专利技术的目的是为了实现视觉效 ...
【技术保护点】
一种基于视觉感知的自适应服装动画建模方法,其特征在于,所述方法包括以下步骤:步骤1:构建符合人眼特性的服装视觉显著模型,应用深度卷积神经网络学习并提取出服装动画每帧图像的不同层次抽象特征,并从这些特征和真实的眼动数据中深度学习出视觉显著模型;步骤2:服装分区域建模,基于步骤1已构建的视觉显著模型,预测服装动画图像的视觉显著图,提取出服装区域的关注度,对服装变形进行滤波,并结合摄像机视点运动信息以及物理变形信息,通过设置细节模拟因子对服装进行分区域建模;利用其对服装变形进行滤波,使得高关注服装区域保持原有物理逼真的变形,而低关注服装区域变得更为平滑;在此基础上,结合摄像机视点位置和方向对服装区域进行分割,通过设置细节模拟因子控制不同区域的模拟细节程度,保证离视点较远的低关注遮挡区域尽可能平滑,而离视点近的未遮挡区域尽可能保持原有变形;步骤3:构建视觉感知驱动的自适应服装模型并实现模拟,采用自适应多精度网格技术实现服装分区域建模,细节模拟因子高的区域进行高精度建模,细节模拟因子较低的区域则进行低精度建模,在此基础上进行动力学计算和碰撞检测,构建视觉逼真的服装动画系统。
【技术特征摘要】
1.一种基于视觉感知的自适应服装动画建模方法,其特征在于,所述方法包括以下步骤:步骤1:构建符合人眼特性的服装视觉显著模型,应用深度卷积神经网络学习并提取出服装动画每帧图像的不同层次抽象特征,并从这些特征和真实的眼动数据中深度学习出视觉显著模型;步骤2:服装分区域建模,基于步骤1已构建的视觉显著模型,预测服装动画图像的视觉显著图,提取出服装区域的关注度,对服装变形进行滤波,并结合摄像机视点运动信息以及物理变形信息,通过设置细节模拟因子对服装进行分区域建模;利用其对服装变形进行滤波,使得高关注服装区域保持原有物理逼真的变形,而低关注服装区域变得更为平滑;在此基础上,结合摄像机视点位置和方向对服装区域进行分割,通过设置细节模拟因子控制不同区域的模拟细节程度,保证离视点较远的低关注遮挡区域尽可能平滑,而离视点近的未遮挡区域尽可能保持原有变形;步骤3:构建视觉感知驱动的自适应服装模型并实现模拟,采用自适应多精度网格技术实现服装分区域建模,细节模拟因子高的区域进行高精度建模,细节模拟因子较低的区域则进行低精度建模,在此基础上进行动力学计算和碰撞检测,构建视觉逼真的服装动画系统。2.根据权利要求1所述方法,其特征在于,步骤1包括以下步骤:1.1眼动数据采集和预处理,采用遥测式眼动仪收集真实眼动数据;1.2运用深度学习方法构建视觉显著性模型;1.3通过交叉验证评价模型的准确性,将特征数据集以及显著图集分割为两个子集,其中一个子集作为训练样本集,另外一个子集作为验证样本集,根据训练样本集学习深度神经网络;然后用测试集进行测试,比较预测值与真实样本值之间的误差,用以评价显著模型学习算法的准确性。3.根据权利要求2所述方法,其特征在于,步骤1.2包括以下步骤:将一帧图像作为输入,运用卷积神经网络提取出底层、中层和高层特征;然后,通过特征权重网络训练出各个特征在视觉显著性预测中的影响...
【专利技术属性】
技术研发人员:石敏,刘亚宁,李昊,毛天露,
申请(专利权)人:华北电力大学,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。