一种注视数据还原方法及系统技术方案

技术编号:21914633 阅读:20 留言:0更新日期:2019-08-21 12:37
本发明专利技术公开了一种注视数据还原方法,该方法包括:获取3D虚拟场景和用户的眼部图像;对所述眼部图像进行分析,获取用户的注视数据;将所述注视数据还原至所述3D虚拟场景。基于本发明专利技术的技术方案可以将用户的注视数据还原至3D虚拟场景,解决了现有技术中将注视数据还原至视频数据的缺点,将注视数据还原至所述3D虚拟场景中,由于还原过程中注视数据能够更加匹配用户的视野,使得注视数据还原的处理过程较为简单且提升了处理速度。对应的,本发明专利技术还公开了一种注视数据还原系统。

A method and system for restoring gaze data

【技术实现步骤摘要】
一种注视数据还原方法及系统
本专利技术涉及眼动跟踪
,特别是涉及一种注视数据还原方法及系统。
技术介绍
为了研究用户在某些场景中的观察数据,通常需要将用户的注视数据进行还原,以便对用户在该场景中的注视数据进行分析。在现有的将注视数据进行还原时,通常是将注视数据还原至与该场景对应的视频数据中,由于用户的眼动数据是注视的坐标或矢量信息,而每个人的视野角度不同,对于用户的注视数据进行还原时,由于视频数据无法反映每个用户的注视角度,会使得注视数据的还原的过程较为困难,并且处理速度较慢,从而使得利用还原后的注视数据进行后续的分析和统计很不方便。
技术实现思路
针对于上述问题,本专利技术提供一种注视数据还原方法及系统,实现将用户的注视数据还原至3D虚拟场景中,使得注视数据还原的处理过程较为简单且提升了处理速度。为了实现上述目的,本专利技术提供了如下技术方案:一种注视数据还原方法,该方法包括:获取3D虚拟场景和用户的眼部图像;对所述眼部图像进行分析,获取用户的注视数据;将所述注视数据还原至所述3D虚拟场景。可选地,该方法还包括:获取实景记录视频中的用户注视画面;对所述用户注视画面进行图像拼接处理,实现3D虚拟场景搭建,获得所述3D虚拟场景。可选地,所述3D虚拟场景包括全景图,其中,所述对所述用户注视画面进行图像拼接处理,包括:将各个所述用户注视画面投影至目标空间面上;在所述目标空间面上对相邻的所述用户注视画面进行比较,确定画面重叠区域;对所述画面重叠区域进行融合处理,并对融合处理后的多个用户注视画面进行拼接处理,获得全景图。可选地,该方法还包括:通过目标设备拍摄获得与用户视野相匹配的360度全景图,所述3D虚拟场景包括所述360度全景图。可选地,该方法还包括:获取所述用户注视画面中的场景信息;通过预设3D场景模型对所述场景信息进行3D虚拟场景搭建,获得3D虚拟场景。可选地,该方法还包括:采集用户的位置数据,其中,所述对所述眼部图像进行分析,获得用户的注视数据,包括:基于所述位置数据,对所述用户的眼部图像进行分析,获得用户的注视数据。可选地,所述位置数据包括用户的位置及角度信息、行走路径数据和行为数据中的至少一种。可选地,该方法还包括:将多个用户的注视数据还原至所述3D虚拟场景,实现对多个用户的注视数据的联合分析。可选地,所述将多个用户的注视数据还原至所述3D虚拟场景,包括:依据所述多个用户的注视数据与所述3D虚拟场景的空间匹配关系,将所述多个用户的注视数据还原至所述3D虚拟场景。可选地,所述将多个用户的注视数据还原至所述3D虚拟场景,包括:生成目标时间轴,并将所述多个用户的注视数据的时间信息匹配至所述目标时间轴上;将所述目标时间轴上的注视数据还原至所述3D虚拟场景。可选地,该方法还包括:根据将多个用户的注视数据还原至所述3D虚拟场景的还原数据,生成可视化图,使得利用所述可视化图对多个用户的注视数据的联合分析。一种注视数据还原系统,该系统包括:获取单元,用于获取3D虚拟场景和用户的眼部图像;分析单元,用于对所述眼部图像进行分析,获取用户的注视数据;还原单元,用于将所述注视数据还原至所述3D虚拟场景。可选地,所述系统包括:画面获取单元,用于获取实景记录视频中的用户注视画面;图像处理单元,用于对所述用户注视画面进行图像拼接处理,实现3D虚拟场景搭建,获得所述3D虚拟场景;其中,所述图像处理单元,包括:投影子单元,用于将各个所述用户注视画面投影至目标空间面上;比较子单元,用于在所述目标空间面上对相邻的所述用户注视画面进行比较,确定画面重叠区域;拼接子单元,用于对所述画面重叠区域进行融合处理,并对融合处理后的多个用户注视画面进行拼接处理,获得全景图,其中,所述3D虚拟场景包括全景图。可选地,所述系统还包括:位置数据采集单元,用于采集用户的位置数据,所述位置数据包括用户的位置及角度信息、行走路径数据和行为数据中的至少一种;其中,所述分析单元具体用于:基于所述位置数据,对所述用户的眼部图像进行分析,获得用户的注视数据。可选地,该系统还包括:联合分析单元,用于将多个用户的注视数据还原至所述3D虚拟场景,实现对多个用户的注视数据的联合分析;其中,联合分析单元包括:第一还原子单元,用于依据所述多个用户的注视数据与所述3D虚拟场景的空间匹配关系,将所述多个用户的注视数据还原至所述3D虚拟场景;和/或第二还原子单元,用于生成目标时间轴,并将所述多个用户的注视数据的时间信息匹配至所述目标时间轴上;将所述目标时间轴上的注视数据还原至所述3D虚拟场景。可选地,所述系统还包括:图像生成单元,用于根据将多个用户的注视数据还原至所述3D虚拟场景的还原数据,生成可视化图,使得利用所述可视化图对多个用户的注视数据的联合分析。相较于现有技术,本专利技术提供了一种注视数据还原方法及系统,获取3D虚拟场景和用户的眼部图像,对眼部图像进行分析,获取用户的注视数据;将注视数据还原至该3D虚拟场景。基于本专利技术的技术方案可以将用户的注视数据还原至3D虚拟场景,解决了现有技术中将注视数据还原至视频数据的缺点,将注视数据还原至所述3D虚拟场景中,由于还原过程中注视数据能够更加匹配用户的视野,使得注视数据还原的处理过程较为简单且提升了处理速度。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。图1为本专利技术实施例提供的一种注视数据还原方法的流程示意图;图2为本专利技术实施例提供的一种眼镜式眼动仪的结构示意图;图3为本专利技术实施例提供的一种注视数据还原系统的结构示意图。具体实施方式下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。本专利技术的说明书和权利要求书及上述附图中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。在本专利技术实施例中提供了一种注视数据还原方法,参见图1,该方法可以包括以下步骤:S101、获取3D虚拟场景和用户的眼部图像。在本专利技术实施例中将注视数据还原至3D虚拟场景时,需要首先获取对应的3D虚拟场景,此时,包括了两种应用场景,一种是针对虚拟现实的应用场景中,即已经存在3D虚拟场景,则可以直接获取该3D虚拟场景;另一种是针对现实的使用场景,即对实景记录视频相匹配的3D虚拟场景进行注视数据还原,在该场景中需要基于实景记录视频先创建一个3D虚拟场景,需要说明的是,在本专利技术的实施例中3D虚拟场景可以是基于用户注视画面中的场景信息进行搭建获得的,也可以是通过能够为后续分析带来与3D虚拟场景相类似的分析效果的全景图或者360度全景图体现。对应该场景,本专利技术的另本文档来自技高网...

【技术保护点】
1.一种注视数据还原方法,其特征在于,该方法包括:获取3D虚拟场景和用户的眼部图像;对所述眼部图像进行分析,获取用户的注视数据;将所述注视数据还原至所述3D虚拟场景。

【技术特征摘要】
1.一种注视数据还原方法,其特征在于,该方法包括:获取3D虚拟场景和用户的眼部图像;对所述眼部图像进行分析,获取用户的注视数据;将所述注视数据还原至所述3D虚拟场景。2.根据权利要求1所述的方法,其特征在于,该方法还包括:获取实景记录视频中的用户注视画面;对所述用户注视画面进行图像拼接处理,实现3D虚拟场景搭建,获得所述3D虚拟场景。3.根据权利要求2所述的方法,其特征在于,所述3D虚拟场景包括全景图,其中,所述对所述用户注视画面进行图像拼接处理,包括:将各个所述用户注视画面投影至目标空间面上;在所述目标空间面上对相邻的所述用户注视画面进行比较,确定画面重叠区域;对所述画面重叠区域进行融合处理,并对融合处理后的多个用户注视画面进行拼接处理,获得全景图。4.根据权利要求3所述的方法,其特征在于,该方法还包括:通过目标设备拍摄获得与用户视野相匹配的360度全景图,所述3D虚拟场景包括所述360度全景图。5.根据权利要求2所述的方法,其特征在于,该方法还包括:获取所述用户注视画面中的场景信息;通过预设3D场景模型对所述场景信息进行3D虚拟场景搭建,获得3D虚拟场景。6.根据权利要求1所述的方法,其特征在于,该方法还包括:采集用户的位置数据,其中,所述对所述眼部图像进行分析,获得用户的注视数据,包括:基于所述位置数据,对所述用户的眼部图像进行分析,获得用户的注视数据。7.根据权利要求6所述的方法,其特征在于,所述位置数据包括用户的位置及角度信息、行走路径数据和行为数据中的至少一种。8.根据权利要求1-7中任意一项所述的方法,其特征在于,该方法还包括:将多个用户的注视数据还原至所述3D虚拟场景,实现对多个用户的注视数据的联合分析。9.根据权利要求8所述的方法,其特征在于,所述将多个用户的注视数据还原至所述3D虚拟场景,包括:依据所述多个用户的注视数据与所述3D虚拟场景的空间匹配关系,将所述多个用户的注视数据还原至所述3D虚拟场景。10.根据权利要求8所述的方法,其特征在于,所述将多个用户的注视数据还原至所述3D虚拟场景,包括:生成目标时间轴,并将所述多个用户的注视数据的时间信息匹配至所述目标时间轴上;将所述目标时间轴上的注视数据还原至所述3D虚...

【专利技术属性】
技术研发人员:秦林婵王云飞黄通兵
申请(专利权)人:北京七鑫易维信息技术有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1