一种眼动分析方法及系统技术方案

技术编号:36520477 阅读:10 留言:0更新日期:2023-02-01 15:55
本申请涉及一种眼动分析方法及系统,属于眼动数据分析的技术领域,该方法其包括:获取目标用户在预设环境下所看到的第一场景视频,并同时获取目标用户在环境下的眼动注视数据;基于深度学习算法,对第一场景视频进行语义分割,获得第二场景视频,第二场景视频中划分有眼动兴趣区;将眼动注视数据与第二场景视频进行叠加,获得眼动注视数据在第二场景视频中对应的注视像素点;统计第二场景视频中每帧图像对应的注视像素点,并结合时间序列输出目标用户注视眼动兴趣区的眼动数据指标。当研究对象在场景视频中的形状和位置动态变化时,本申请减能够减少研究目标用户的眼动行为所需花费的时间。的时间。的时间。

【技术实现步骤摘要】
一种眼动分析方法及系统


[0001]本申请涉及眼动数据分析的
,特别涉及一种眼动分析方法及系统。

技术介绍

[0002]早在19世纪就有研究者认为眼睛的运动过程在一定程度上暗示出人类的认知过程规律。由此发展了眼动追踪技术和可穿戴眼动追踪设备,眼动追踪技术利用电子和光学等检测手段获取目标用户眼动行为的眼动注视数据,进而开展对人类行为和眼动行为的研究分析。
[0003]目前,基于兴趣区(Area of Interest, AOI)的数据分析是眼动行为常用的一种研究分析方法,该方法根据实验目的,由研究人员在测试材料上划出一个包含研究对象的区域,这个区域就称为眼动兴趣区(AOI),通过统计目标用户的眼动注视数据在测试材料上的注视像素点,从而获得目标用户对于兴趣区的数据指标,如AOI的首次注视时间、访问次数、总访问持续时间、注视次数、注视总持续时间、平均注视持续时间等。
[0004]针对上述相关技术,专利技术人发现,当研究分析预设环境下目标用户的眼动行为时,由于研究对象在场景视频中的形状和位置往往会发生变化,需要研究人员逐帧调整兴趣区的形状和位置,以保证兴趣区范围始终覆盖场景视频中的研究对象,而后将目标用户的眼动数据映射到场景视频的每帧图像中,因此,当研究对象在场景视频中的形状和位置动态变化时,研究目标用户的眼动行为需花费大量时间。

技术实现思路

[0005]当研究对象在场景视频中的形状和位置动态变化时,为了减少研究目标用户的眼动行为所需花费的时间,本申请提供了一种眼动分析方法及系统。r/>[0006]第一方面,本申请提供了一种眼动分析方法,采用如下技术方案:一种眼动分析方法,包括:获取目标用户在预设环境下所看到的第一场景视频,并同时获取所述目标用户在所述环境下的眼动注视数据;基于深度学习算法,对所述第一场景视频进行语义分割,获得第二场景视频;其中,所述第二场景视频中划分有眼动兴趣区;将所述眼动注视数据与所述第二场景视频进行叠加,获得所述眼动注视数据在所述第二场景视频中对应的注视像素点;统计所述第二场景视频中每帧图像对应的所述注视像素点,并结合时间序列输出所述目标用户注视所述眼动兴趣区的眼动数据指标。
[0007]通过采用上述技术方案,在预设环境下获取到目标用户所看到的第一场景视频和目标用户在此环境下的眼动注视数据,基于深度学习算法,对第一场景视频的语义分割,实现对第一场景视频的眼动兴趣区自动划分和识别,得到第二场景视频,将眼动注视数据与第二场景视频进行叠加后,获得眼动注视数据在第二场景视频中对应的注视像素点;从而
经过统计能够获得并输出目标用户在该环境下注视眼动兴趣区的眼动数据指标,如注视次数、注视时间等,由于本申请采用深度学习算法,对第一场景视频进行语义分割,自动划分眼动兴趣区,在一定程度上能够避免研究人员花费大量时间来逐帧调整眼动兴趣区的形状和大小,进而当研究对象在场景视频中的形状和位置动态变化时,能够减少研究目标用户的眼动行为所需花费的时间。
[0008]可选的,所述深度学习算法采用DeepLab、EncNet、SegNet或PSPNet。
[0009]可选的,所述对所述第一场景视频进行语义分割,包括:为所述第一场景视频中的每个像素赋予语义标签;基于所述语义标签的类别自动划分并识别所述眼动兴趣区。
[0010]通过采用上述技术方案,语义分割能够对第一场景视频中的每个像素赋予语义标签,表明各个像素的类别,具有相同语义标签的同类别像素自动被画分为眼动兴趣区。
[0011]可选的,所述将所述眼动注视数据与所述第二场景视频进行叠加,获得所述眼动注视数据在所述第二场景视频中对应的注视像素点,包括:调取所述眼动注视数据在第一坐标系内对应的第一坐标点;将所述第一坐标点转化到第二场景视频的第二坐标系内,获得第二坐标点;将所述第二坐标点与所述第二场景视频的像素点对应,获得所述眼动注视数据在所述第二场景视频中对应的注视像素点。
[0012]通过采用上述技术方案,第一坐标系是一个三维坐标系,第一坐标系可以是以场景摄像机坐标原点,通过三维坐标点或者目标用户视线的向量能够表示被注视物体的位置;第二坐标系是一个二维坐标系,第二坐标系可以是以第二场景视频的中心点为坐标原点,将眼动注视数据与第二场景视频叠加后,能够将目标用户的注视的物体对应到第二场景视频中的一个注视像素上。
[0013]可选的,所述统计所述第二场景视频中每帧图像对应的所述注视像素点,并结合时间序列输出所述目标用户注视所述眼动兴趣区的眼动数据指标,包括:统计所述第二场景视频的每一帧图像中所述注视像素点的语义标签在所述时间序列上的出现次序和出现数量;基于所述语义标签在所述时间序列上的出现顺序和出现数量,计算并输出所述眼动数据指标。
[0014]通过采用上述技术方案,由于第二场景视频中的每个像素均有语义标签,当将目标用户的注视的物体对应到第二场景视频中的一个注视像素上后,该注视像素的语义标签类别即可获知目标用户注视的眼动兴趣区,通过统计第二场景视频的每帧图像上的注视像素,即可输出目标用户注视眼动兴趣区眼动数据指标。
[0015]可选的,所述眼动兴趣区的统计指标包括:首次注视时间、访问次数、总访问持续时间、注视次数、注视总持续时间和平均注视持续时间。
[0016]第二方面,本申请提供了一种眼动分析系统,采用如下技术方案:一种眼动分析系统,包括第一获取模块、第二获取模块、语义分割模块、叠加模块和统计输出模块;其中,所述第一获取模块,用于获取目标用户在预设环境下所看到的第一场景视频;所述第二获取模块,用于在所述第一获取模块获取所述第一场景视频时,同时获
取所述目标用户在所述环境下的眼动注视数据;所述语义分割模块,用于接收所述第一场景视频,并利用深度学习算法对所述第一场景视频进行语义分割,获得第二场景视频,所述第二场景视频中划分有眼动兴趣区;所述叠加模块,用于接收所述第二场景视频和所述眼动注视数据,并将所述眼动注视数据与所述第二场景视频进行叠加,获得所述眼动注视数据在所述第二场景视频中对应的注视像素点;所述统计输出模块,用于统计所述第二场景视频中每帧图像的所述注视像素点,并结合时间序列输出所述目标用户注视所述眼动兴趣区的眼动数据指标。
[0017]通过采用上述技术方案,第一获取模块获取在预设环境下到目标用户所看到的第一场景视频,同时第二获取模块获取该目标用户在该环境下的眼动注视数据;语义分割模块基于深度学习算法,对第一场景视频的语义分割,实现对第一场景视频的眼动兴趣区自动划分和识别,得到第二场景视频,而后述叠加模块将眼动注视数据与第二场景视频进行叠加后,获得眼动注视数据在第二场景视频中对应的注视像素点;从而使统计输出模块能够输出目标用户在该环境下注视眼动兴趣区的眼动数据指标,由于本申请采用深度学习算法,对第一场景视频进行语义分割,自动划分眼动兴趣区,在一定程度上能够避免研究人员花费大量时间来逐帧调整眼动兴趣区的形状和大小,进而当研究对象在场景视频中的形状和位置动态变化时,能够减少研究目标用本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种眼动分析方法,其特征在于:包括,获取目标用户在预设环境下所看到的第一场景视频,并获取所述目标用户在所述环境下的眼动注视数据;基于深度学习算法,对所述第一场景视频进行语义分割,获得第二场景视频;其中,所述第二场景视频中划分有眼动兴趣区;将所述眼动注视数据与所述第二场景视频进行叠加,获得所述眼动注视数据在所述第二场景视频中对应的注视像素点;统计所述第二场景视频中每帧图像对应的所述注视像素点,并结合时间序列输出所述目标用户注视所述眼动兴趣区的眼动数据指标。2.根据权利要求1所述的一种眼动分析方法,其特征在于:所述深度学习算法采用DeepLab、EncNet、SegNet或PSPNet。3.根据权利要求1所述的一种眼动分析方法,其特征在于:所述对所述第一场景视频进行语义分割,包括:为所述第一场景视频中的每个像素赋予语义标签;基于所述语义标签划分并识别所述眼动兴趣区。4.根据权利要求1所述的一种眼动分析方法,其特征在于:所述将所述眼动注视数据与所述第二场景视频进行叠加,获得所述眼动注视数据在所述第二场景视频中对应的注视像素点,包括:调取所述眼动注视数据在第一坐标系内对应的第一坐标点;将所述第一坐标点转化到第二场景视频的第二坐标系内,获得第二坐标点;将所述第二坐标点与所述第二场景视频的像素点对应,获得所述眼动注视数据在所述第二场景视频中对应的注视像素点。5.根据权利要求1所述的一种眼动分析方法,其特征在于:所述统计所述第二场景视频中每帧图像对应的所述注视像素点,并结合时间序列输出所述目标用户注视所述眼动兴趣区的眼动数据指标,包括:统计所述第二场景视频的每一帧图像中所述注视像素点的语义标签在所述时间序列上的出现次序和出现数量;基于所述语义标签在所述时间序列上的出现顺序和出现数量,计算并输出所述眼动数据指标。6.根据权利要求1

5任一所述的一种眼动分析方法,...

【专利技术属性】
技术研发人员:赵起超王清菊杨苒范洁云
申请(专利权)人:北京津发科技股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1