The present invention provides a moving end 3D face augmented reality effect method. The method includes: capturing video stream from a mobile device camera, obtaining image frames from the video stream, detecting and tracking face key points for each frame of the image frame, and calculating the corresponding correlation of the 3D model according to the key point coordinates of the face. Coordinate the key points and move the model to the correct position; adjust the position and size of the 3D model; estimate the attitude angle of the virtual 3D face model based on the key points of the 2D face; calculate the 17 groups of facial expressions and the fusion deformation amplitude according to the key points of the face, and fuse the deformation amplitude according to the different expressions, and make the fusion deformation. In the above process, different facial expression fusion results are superimposed, rendering the final face augmented reality effect. With this method, the amount of computation can be reduced and the augmented reality technology can run smoothly on the mobile terminal.
【技术实现步骤摘要】
一种移动端3D人脸增强现实实现方法
本专利技术属于增强现实
,具体来说涉及一种移动端3D人脸增强现实实现方法。本专利技术可应用于娱乐,广告等领域进行增强现实。
技术介绍
目前3D人脸增强现实方法需要事先为3D人脸模型设置骨骼等来控制人脸变形,采取3D人脸特征点的计算来获得关键点的位置,需要对特定用户进行特殊的预处理或者进行学习过程,需要进行3D关键点的坐标回归运算,这样的方式计算量大、效率低、反应迟缓甚至卡顿。其次现有人脸表情变化方案没有精简人脸表情组,融合变形需要调节的区域多,计算量大。因此希望开发一种效率更高,计算量小并且具有更好效果的实现方法。
技术实现思路
为解决现有技术的问题,本专利技术开发出了一种用于移动端的3D人脸增强现实实现方法,该方法涉及到识别人脸图像关键点,通过2D人脸关键点计算出人脸姿态并将该姿态通过一种融合变换的方法应用于3D人脸模型。具体来说,本专利技术采用了以下技术方案:一种移动端3D增强现实实现方法,其特征在于,所述方法包括以下步骤:1)预先制作一个3D人脸模型,并标定人脸关键点;2)从移动设备摄像头中捕捉视频流并从所述视频流中获取图像帧;3)利用人脸追踪器对所述图像中的每一帧进行人脸关键点检测与跟踪,其中读取第一帧图像帧时,捕捉当前图像帧中的人脸区域,利用机器学习算法检测人脸中的关键点,第一帧以后的图像帧采用特征匹配的跟踪方式,在前一帧人脸区域附近检测上述关键点,并捕捉当前图像帧的人脸区域;4)根据获得的人脸关键点信息,调整预先制作的3D人脸模型的位置和尺寸,其中在三维空间中,将摄像头获取的真实人脸检测图像作为背景幕布,将 ...
【技术保护点】
一种移动端3D增强现实实现方法,其特征在于,所述方法包括以下步骤:1)预先制作一个3D人脸模型,并标定人脸关键点;2)从移动设备摄像头中捕捉视频流并从所述视频流中获取图像帧;3)利用人脸追踪器对所述图像中的每一帧进行人脸关键点检测与跟踪,其中读取第一帧图像帧时,捕捉当前图像帧中的人脸区域,利用机器学习算法检测人脸中的关键点,第一帧以后的图像帧采用特征匹配的跟踪方式,在前一帧人脸区域附近检测上述关键点,并捕捉当前图像帧的人脸区域;4)根据获得的人脸关键点信息,调整预先制作的3D人脸模型的位置和尺寸,其中在三维空间中,将摄像头获取的真实人脸检测图像作为背景幕布,将三维模型放在三维空间里并对准其中一个选定的关键点,使得相机、模型上的选定关键点和真实人脸上的选定关键点在一条直线上,调整三维模型的大小和前后位置,使模型遮挡住人脸部分或全部画面;5)根据获得的人脸关键点信息,调整预先制作的3D人脸模型的姿态角度,其中用欧拉角表示人脸俯仰、偏转和翻转的角度,每隔5度记录幕布上人脸转动时追踪器返回的三个角度值,对利用该方式获得的三个角度值进行线性回归,得到俯仰、偏转和翻转三个角度值的回归模型,将追踪器 ...
【技术特征摘要】
1.一种移动端3D增强现实实现方法,其特征在于,所述方法包括以下步骤:1)预先制作一个3D人脸模型,并标定人脸关键点;2)从移动设备摄像头中捕捉视频流并从所述视频流中获取图像帧;3)利用人脸追踪器对所述图像中的每一帧进行人脸关键点检测与跟踪,其中读取第一帧图像帧时,捕捉当前图像帧中的人脸区域,利用机器学习算法检测人脸中的关键点,第一帧以后的图像帧采用特征匹配的跟踪方式,在前一帧人脸区域附近检测上述关键点,并捕捉当前图像帧的人脸区域;4)根据获得的人脸关键点信息,调整预先制作的3D人脸模型的位置和尺寸,其中在三维空间中,将摄像头获取的真实人脸检测图像作为背景幕布,将三维模型放在三维空间里并对准其中一个选定的关键点,使得相机、模型上的选定关键点和真实人脸上的选定关键点在一条直线上,调整三维模型的大小和前后位置,使模型遮挡住人脸部分或全部画面;5)根据获得的人脸关键点信息,调整预先制作的3D人脸模型的姿态角度,其中用欧拉角表示人脸俯仰、偏转和翻转的角度,每隔5度记录幕布上人脸转动时追踪器返回的三个角度值,对利用该方式获得的三个角度值进行线性回归,得到俯仰、偏转和翻转三个角度值的回归模型,将追踪器返回的角度值输入回归模型,估算出人脸三维模型的转动角度,再根据该估算的角度将虚拟人脸模型转到对应的角度;6)制作一套包含若干组人脸表情与融合变形幅度的集合,每一组人脸表情与融合变形幅度包含若干个关键点,根据以上步骤中获得的关键点信息计算每一组表情与融合变形幅度中的人脸表情距离;7)根据上一步骤中计算得到的人脸表情变化距离对人脸表情进行融合变形,其中利用上一步骤中计算得到的人脸表情距离作为融合变形幅度依据,根据人脸偏转角度将侧脸表情距离回归为正脸距离,并对各人脸表情距离进行归一化,求取表情距离数据的正向变化和反向变化的值,并根据该值拉伸3D人脸模型相应表情区域关键点的位置,使得人脸模型能够随着人...
【专利技术属性】
技术研发人员:杨通,杨宽,赵一超,
申请(专利权)人:南京开为网络科技有限公司,
类型:发明
国别省市:江苏,32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。