【技术实现步骤摘要】
一种图像处理方法、装置和终端设备
本专利技术涉及计算机
,特别涉及一种图像处理方法、装置和终端设备。
技术介绍
虚拟现实技术(VirtualReality,简称VR)的一个重要应用领域是社交领域。例如,VR视频直播的应用中,主持人侧配置360度摄像头,采集直播地点的全视角场景视频,经由网络共享给接入端的VR头戴显示设备(HeadMountedDevice,简称HMD),访客通过佩戴VRHMD体验主持人侧的场景视频,并可以通过转动头部来观看不同视角的场景。该应用的特点是VR视频数据流为单向传输。随着VR社交需求的不断提升,VR社交需要两点之间实现VR视频数据流的双向流动,即社交双方都需要同时配置360度摄像头和VRHMD,同时采集本地全视角视频并发送给对方,由对方从VRHMD中观看。但是,因为社交双方均佩戴VRHMD,这将导致本地摄像头拍摄到的人脸都会被VRHMD遮挡住眼睛及周围部分。因为眼部周围图像带有非常丰富的表情信息,表情信息的缺失严重影响VR技术在社交领域的应用。所以,急需一种图像处理方案,对被VRHMD遮挡住的眼睛及周围部分进行重建,以保证社交过程中表情信息的完整。
技术实现思路
鉴于上述问题,提出了本专利技术的一种图像处理方法、装置和终端设备,以便解决或至少部分地解决上述问题。根据本专利技术的一个方面,提供了一种图像处理方法,该方法包括:从摄像头采集的视频流中获取指定目标的实际图像,其中,指定目标佩戴有虚拟现实头戴设备;从实际图像中识别出指定目标脸部的未被虚拟现实头戴显示设备遮挡区域和被虚拟现实头戴显示设备遮挡区域,获取与未被虚拟现实头戴显示设 ...
【技术保护点】
一种图像处理方法,其特征在于,所述方法包括:从摄像头采集的视频流中获取指定目标的实际图像,其中,所述指定目标佩戴有虚拟现实头戴设备;从所述实际图像中识别出所述指定目标脸部的未被虚拟现实头戴显示设备遮挡区域和被虚拟现实头戴显示设备遮挡区域,获取与所述未被虚拟现实头戴显示设备遮挡区域对应的第一脸部图像数据;根据所述第一脸部图像数据和预设的脸部表情模型,得到与所述第一脸部图像数据匹配的第二脸部图像数据,所述第二脸部图像数据与所述被虚拟现实头戴显示设备遮挡区域相对应;将所述第一脸部图像数据和所述第二脸部图像数据相融合,生成合成图像。
【技术特征摘要】
1.一种图像处理方法,其特征在于,所述方法包括:从摄像头采集的视频流中获取指定目标的实际图像,其中,所述指定目标佩戴有虚拟现实头戴设备;从所述实际图像中识别出所述指定目标脸部的未被虚拟现实头戴显示设备遮挡区域和被虚拟现实头戴显示设备遮挡区域,获取与所述未被虚拟现实头戴显示设备遮挡区域对应的第一脸部图像数据;根据所述第一脸部图像数据和预设的脸部表情模型,得到与所述第一脸部图像数据匹配的第二脸部图像数据,所述第二脸部图像数据与所述被虚拟现实头戴显示设备遮挡区域相对应;将所述第一脸部图像数据和所述第二脸部图像数据相融合,生成合成图像。2.如权利要求1所述的图像处理方法,其特征在于,所述根据所述第一脸部图像数据和预设的脸部表情模型,得到与所述第一脸部图像数据匹配的第二脸部图像数据包括:将所述第一脸部图像数据输入到所述预设的脸部表情模型中,以使所述脸部表情模型识别所述第一脸部图像数据,输出与所述第一脸部图像数据相匹配的第二脸部图像数据。3.如权利要求2所述的图像处理方法,其特征在于,所述预设的脸部表情模型是通过深度神经网络实现得到的,所述通过深度神经网络实现得到预设的脸部表情模型包括:获取摄像头在第一场景下采集的所述指定目标的多个第一样本图像,以及在第二场景下采集的所述指定目标的多个第二样本图像;其中,在所述第一场景下,所述指定目标佩戴有所述虚拟现实头戴设备;在所述第二场景下,所述指定目标未佩戴所述虚拟现实头戴显示设备,且各第二样本图像中包含所述指定用户的脸部状态;从所述第一样本图像中识别出第一被遮挡区域,获取所述第一被遮挡区域信息;根据所述第一被遮挡区域信息,对所述第二样本图像的所述指定目标脸部的与所述第一被遮挡区域对应的区域进行标记;将所述第二样本图像中标记区域的图像放入第一指定集合中,将该第一指定集合作为深度神经网络训练时的输出集合;将所述第二样本图像中的所述指定目标脸部的未被标记区域的图像放入第二指定集合中,将该第二指定集合作为深度神经网络训练时的输入集合;所述第二指定集合与所述第一指定集合中的图像元素有一一对应的严格的输入输出对应关系;将所述输入集合和所述输出集合中的每一对具有输入输出对应关系的图像元素输入到预设的深度神经网络中进行训练,确定未遮挡区域图像和生成的与其匹配的遮挡区域图像之间的函数关系,以使在所述第一脸部图像数据输入到所述预设的脸部表情模型时,所述预设的脸部表情模型根据输入的所述第一脸部图像数据和所述函数关系输出与其匹配的第二脸部图像数据。4.如权利要求3所述的图像处理方法,其特征在于,在所述预设的深度神经网络训练过程中,所述预设的深度神经网络训练的损失函数是所述输出集合中的图像和生成的与所述输入集合中的图像相匹配的图像之间的均方差。5.如权利要求1所述的图像处理方法,其特征在于,所述方法还包括:从所述实际图像中识别出被所述虚拟现实头戴设备遮挡的非脸部区域;从所述视频流中获取所述实际图像之前的多个第三图像,从所述第三图像中提取背景图像,使用所述背景图像中与被所述虚拟现实头戴设备遮挡的非脸部区域对应的图像数据,对所述被所述虚拟现实头戴设备遮挡的非脸部区域进行去遮挡处理。6.如权利要求1所述的图像处理方法,其特征在于,所述方法还包括:从所述实际图像中识别出被所述虚拟现实头戴设备遮挡的非脸部图像数据,将所述非脸部图像数...
【专利技术属性】
技术研发人员:戴天荣,朱育革,赵大川,陈翔,
申请(专利权)人:歌尔股份有限公司,
类型:发明
国别省市:山东,37
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。