一种增强现实AR特效生成方法、装置及电子设备制造方法及图纸

技术编号:25551255 阅读:17 留言:0更新日期:2020-09-08 18:50
本公开提供了一种增强现实AR特效生成方法、装置及电子设备,其中,该方法包括:获取当前位于游乐场所内的用户图像;对所述用户图像进行人脸表情识别,确定用户的表情类别;基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效;基于获取的所述虚拟展示特效与所述用户图像,生成AR特效图像。通过本公开实施例,电子设备可以将与用户的表情类别对应的虚拟展示特效与用户图像进行融合,生成AR特效图像,从而可以展示或提供给用户,与现有技术中单一的显示方法相比,其能够根据用户的实时表情显示对应的AR特效图像,从而提高电子设备显示内容的灵活性,提高用户的融入性和视觉效果,最终达到较好的用户体验。

【技术实现步骤摘要】
一种增强现实AR特效生成方法、装置及电子设备
本公开涉及电子设备
,具体而言,涉及一种增强现实(AugmentedReality,AR)特效生成方法、装置及电子设备。
技术介绍
在展馆或者博物馆等游乐场所中,通常会布置显示屏,来展示一些图像、文字、视频等内容,以达到美化广告展示等效果。这种显示方式的显示内容比较单一,对于大部分用户来说,观看这些显示内容时,会缺少融入性,从而无法达到很好的用户体验。因此,如何实现电子设备的显示内容的灵活性,是值得研究的问题。
技术实现思路
本公开实施例至少提供一种AR特效生成方法、装置以及电子设备。第一方面,本公开实施例提供了一种AR特效生成方法,包括:获取当前位于游乐场所内的用户图像;对所述用户图像进行人脸表情识别,确定用户的表情类别;基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效;基于获取的所述虚拟展示特效与所述用户图像,生成AR特效图像。在一种可能的实施方式中,在获取所述用户图像之前,还包括:检测到所述用户进入设定检测区域。在一种可能的实施方式中,对所述用户图像进行人脸表情识别,确定所述用户的表情类别,包括:基于训练的表情识别模型,对所述用户图像进行人脸表情识别,确定所述用户的表情类别;其中,所述表情识别模型是根据多个表情图像样本数据训练得到的;每个表情图像样本数据包括:包含人脸的图像样本以及该图像样本对应的表情类别标签。在一种可能的实施方式中,所述方法还包括:基于所述用户图像,识别所述用户当前所在的现实场景信息;基于所述现实场景信息,确定当前待展示的目标虚拟对象;或者基于所述用户图像,确定对所述用户定位的位置信息;基于所述位置信息,确定与所述位置信息匹配的目标虚拟对象;基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效,包括:基于确定的所述表情类别,获取与所述表情类别匹配的所述目标虚拟对象的虚拟展示特效。在一种可能的实施方式中,生成所述AR特效图像之后,还包括:展示所述AR特效图像对应的标识码,以便所述用户基于所述标识码获取所述AR特效图像。在一种可能的实施方式中,,所述目标虚拟对象的虚拟展示特效,包括所述目标虚拟对象的部分部位或全部部位对应的以下任意一项或任意组合的动画特效:颜色变化、透明度变化、位置变化、大小变化和形状变化。第二方面,本公开实施例提供了一种AR特效生成装置,包括:获取单元,用于获取当前位于游乐场所内的用户图像;确定单元,用于对所述用户图像进行人脸表情识别,确定用户的表情类别;处理单元,用于基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效;以及基于获取的所述虚拟展示特效与所述用户图像,生成AR特效图像。在一种可能的实施方式中,所述装置还包括检测单元,所述检测单元,用于在获取所述用户图像之前,检测到所述用户进入设定检测区域。在一种可能的实施方式中,所述确定单元,在对所述用户图像进行人脸表情识别,确定所述用户的表情类别时,具体用于:基于训练的表情识别模型,对所述用户图像进行人脸表情识别,确定所述用户的表情类别;其中,所述表情识别模型是根据多个表情图像样本数据训练得到的;每个表情图像样本数据包括:包含人脸的图像样本以及该图像样本对应的表情类别标签。在一种可能的实施方式中,所述确定单元,还用于:基于所述用户图像,识别所述用户当前所在的现实场景信息;基于所述现实场景信息,确定当前待展示的目标虚拟对象;或者基于所述用户图像,确定对所述用户定位的位置信息;基于所述位置信息,确定与所述位置信息匹配的目标虚拟对象;所述处理单元,在基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效时,具体用于:基于确定的所述表情类别,获取与所述表情类别匹配的所述目标虚拟对象的虚拟展示特效。在一种可能的实施方式中,所述处理单元,还用于:在生成所述AR特效图像之后,展示所述AR特效图像对应的标识码,以便用户基于所述标识码获取所述AR特效图像。在一种可能的实施方式中,所述目标虚拟对象的虚拟展示特效,包括所述目标虚拟对象的部分部位或全部部位对应的以下任意一项或任意组合的动画特效:颜色变化、透明度变化、位置变化、大小变化和形状变化。第三方面,本公开实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面所述的展示方法的步骤。第四方面,本公开实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面所述的展示方法的步骤。本公开实施例提供了一种AR特效生成方法、装置及电子设备。在该方案中,电子设备可以识别用户图像中用户的表情类别,并将与该表情类别对应的虚拟展示特效与该用户图像进行融合,生成AR特效图像,从而可以在显示屏中展示与用户表情对应的AR特效图像,与现有技术中单一的显示方法相比,其能够根据用户的实时表情显示对应的AR特效图像,从而提高电子设备显示内容的灵活性,提高用户的融入性和视觉效果,最终达到较好的用户体验。为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。附图说明为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。图1示出了本公开实施例所提供的一种AR特效生成方法的流程图;图2示出了本公开实施例所提供的一种AR特效生成方法实例示意图;图3示出了本公开实施例所提供的一种AR特效生成装置的示意图;图4示出了本公开实施例所提供的一种电子设备的示意图。具体实施方式为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。目前,电子设备显示内容的方式单一本文档来自技高网...

【技术保护点】
1.一种增强现实AR特效生成方法,其特征在于,包括:/n获取当前位于游乐场所内的用户图像;/n对所述用户图像进行人脸表情识别,确定用户的表情类别;/n基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效;/n基于获取的所述虚拟展示特效与所述用户图像,生成AR特效图像。/n

【技术特征摘要】
1.一种增强现实AR特效生成方法,其特征在于,包括:
获取当前位于游乐场所内的用户图像;
对所述用户图像进行人脸表情识别,确定用户的表情类别;
基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效;
基于获取的所述虚拟展示特效与所述用户图像,生成AR特效图像。


2.根据权利要求1所述的方法,其特征在于,在获取所述用户图像之前,还包括:
检测到所述用户进入设定检测区域。


3.根据权利要求1或2所述的方法,其特征在于,对所述用户图像进行人脸表情识别,确定所述用户的表情类别,包括:
基于训练的表情识别模型,对所述用户图像进行人脸表情识别,确定所述用户的表情类别;
其中,所述表情识别模型是根据多个表情图像样本数据训练得到的;每个表情图像样本数据包括:包含人脸的图像样本以及该图像样本对应的表情类别标签。


4.根据权利要求1至3任一项所述的方法,其特征在于,所述方法还包括:
基于所述用户图像,识别所述用户当前所在的现实场景信息;基于所述现实场景信息,确定当前待展示的目标虚拟对象;或者
基于所述用户图像,确定对所述用户定位的位置信息;基于所述位置信息,确定与所述位置信息匹配的目标虚拟对象;或者
在当前显示的或即将显示的目标图像中,确定目标虚拟对象;
基于确定的所述表情类别,获取与所述表情类别匹配的虚拟展示特效,包括:
基于确定的所述表情类别,获取与所述表情类别匹配的所述目标虚拟对象的虚拟展示特效。


...

【专利技术属性】
技术研发人员:王子彬孙红亮李炳泽
申请(专利权)人:上海商汤智能科技有限公司
类型:发明
国别省市:上海;31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1