System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于多深度线索场景的深度知觉训练方法技术_技高网
当前位置: 首页 > 专利查询>河海大学专利>正文

一种基于多深度线索场景的深度知觉训练方法技术

技术编号:41230996 阅读:4 留言:0更新日期:2024-05-09 23:47
本发明专利技术公开了一种基于多深度线索场景的深度知觉训练方法,包括:设置眼球追踪器,用于跟踪眼球运动,实现用户与训练场景交互,并采集眼动数据;在虚拟环境中构建显示深度知觉的三个训练场景;对待训练用户进行训练并记录训练反馈数据和眼动数据;得到分析报告;据其调整视觉训练场景,继续训练,直至完成预设的训练任务;评估待训练用户的深度知觉能力,生成训练结果报告。本发明专利技术基于多深度线索场景,在虚拟现实环境中针对不同用户的个体差异,使用不同的深度线索和视差进行深度知觉训练,用户能够更直观地感受到深度知觉能力的提升。同时,引入眼球跟踪技术,进一步提升用户的训练效果。

【技术实现步骤摘要】

本专利技术涉及一种深度感知训练方法,特别是一种基于多深度线索场景的深度知觉训练方法


技术介绍

1、虚拟现实(vr)是一种新兴技术,可以创造沉浸式和激励的环境,根据用户需求创建不同深度线索的场景,使用户能够在类似于现实世界的环境中进行视觉训练。

2、深度知觉是指人类视觉系统通过感知和理解物体之间的距离和相对位置关系的能力,在日常生活中起着重要作用。现实世界是一个三维环境,所以准确辨别物体之间的相对位置和深度是至关重要的。近年来,越来越多的研究集中在如何帮助改善深度感知缺损的视觉表现,特别是对于立体视觉缺陷。

3、然而立体视只是深度知觉的一个方面,立体视较差的用户未必就一定具有较差的深度知觉能力,因为深度知觉是一个综合性的过程,涉及多个深度线索和认知机制的综合运作,其中深度线索包含多种感知信息,可以加强用户的感知能力。

4、现在对深度知觉仍然缺乏合适的训练和评估方法,且没有有效反馈的问题。


技术实现思路

1、专利技术目的:本专利技术所要解决的技术问题是针对现有技术的不足,提供一种基于多深度线索场景的深度知觉训练方法。

2、为了解决上述技术问题,本专利技术公开了一种基于多深度线索场景的深度知觉训练方法,所述方法包括:

3、步骤1,设置眼球追踪器,用于跟踪眼球运动,根据眼球运动实现用户与训练场景交互,并采集眼动数据;

4、步骤2,通过结合双目深度线索和单目深度线索,在虚拟环境中构建显示深度知觉的三个不同的训练场景;</p>

5、步骤3,使用上述训练场景对待训练用户进行训练,并分别记录上述训练场景中待训练用户的训练反馈数据和眼动数据;

6、步骤4,利用所述三种训练场景中记录的训练反馈数据结合对应的眼动数据,分别得到分析报告;

7、步骤5,根据分析报告,调整视觉训练场景,继续训练,直至完成预设的训练任务;

8、步骤6,根据分析报告,评估待训练用户的深度知觉能力,生成训练结果报告。

9、进一步的,步骤1中所述的实现用户与场景交互,具体包括:

10、通过眼球追踪器实时跟踪采集待训练用户的眼球运动位置和注视焦点;

11、当待训练用户凝视所述训练场景即虚拟现实环境中的菜单时,在凝视持续时间满足预设条件时触发该菜单功能。

12、进一步的,步骤2所述的三个不同的训练场景,即深度知觉的第一训练场景、第二训练场景和第三训练场景,具体包括:

13、第一训练场景,同时具有双目和单目深度线索;其中,单目线索,至少包括:透视效果、高光和阴影的分布、物体相对大小和轮廓的叠加,双目线索,至少包括:物体的运动视差和双眼视差;

14、第二训练场景,去除所有单目深度线索,即去除透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,只保留双目深度线索,即物体的运动视差和双眼视差;

15、第三训练场景,去除所有单目深度线索,即去除透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,同时限制双目深度线索中的物体的运动视差,仅保留双眼视差。

16、进一步的,步骤2所述的保留双眼视差,具体包括:修改所述场景中物体大小和修改线性透视。

17、进一步的,步骤2中所述的修改所述场景中物体大小,具体如下:

18、在所述训练场景中,当一个物体领先于另一个物体时,随着与待训练用户距离的变化,根据后一个物体到人眼的距离调整前一个物体的比例,具体如下:

19、;

20、其中,为后一个物体与待训练用户人眼之间距离,为两个物体之间的距离,为前一个物体的缩放比例。

21、进一步的,步骤2中所述的修改线性透视,具体如下:

22、在所述训练场景中,引入一个参考物体作为后置物体,另一个物体沿着 x 轴放置在离用户更近的位置,将参考物体的位置在倾斜平面中心的 y 轴上偏移预设长度,用于避免两个物体在x-y 平面和 x-z 平面上重叠,并保持人眼与两个物体有一致的视角差,将前一个物体的位置根据待训练用户人眼与后一个物体之间的位置关系进行调整。

23、进一步的,步骤3中所述的对待训练用户进行训练,具体如下:

24、在第一训练场景中,待训练用户根据场景中的物体之间的遮挡关系来判断目标的位置和深度;待训练用户根据物体上的光照变化和阴影判断目标的凹凸形状和位置;

25、在第二训练场景中,待训练用户通过观察物体在运动中的相对速度,推断其远近距离;待训练用户通过观察物体在运动中的轨迹和方向变化,判断物体的相对位置;待训练用户通过比较左右眼的视觉运动差异,判断知物体的距离和深度;

26、在第三训练场景中,待训练用户通过比较左右眼的视差,判断物体的距离;待训练用户通过整合和比较左右眼的视觉信息,判断物体的深度和空间位置;待训练用户通过观察视差梯度,判断物体的远近关系和深度差异;

27、训练时,使用步骤2中所述的不同训练场景,根据难度分别设置不同的等级,并将其展示给待训练用户进行判断,根据待训练用户的判断进行打分。

28、进一步的,步骤4中所述的分析报告,至少包括:用户训练准确率、用户完成时间、熵值和立体视锐度,其中:

29、用户训练准确率,计算方法如下:

30、;

31、其中,表示训练过程中待训练用户的得分,表示训练过程中的总分;

32、用户完成时间t,即待训练用户在一个场景的一个级别中,完成一次训练的时间;

33、熵,即通过眼动数据中的凝视数据,计算待训练用户的不确定值,具体计算方法如下:

34、;

35、其中,表示凝视点的香农熵,表示凝视点范围概率,表示凝视点,表示纳特, 表示凝视点取值数量;

36、立体视锐度,计算方法如下:

37、;

38、其中,表示立体视锐度,和表示两个物体位置和与眼睛形成的角度。

39、进一步的,步骤5中所述的根据分析报告,调整视觉训练场景,继续训练,具体包括:

40、若分析报告中,满足以下条件:待训练用户在同一个场景中训练次数满足预设训练次数,且每次训练准确率、用户完成时间和熵值均满足预设要求,且可辨别场景中不同的视差为;

41、场景在最后一次测试完成后自动进入下一级别。当完成一个场景中的所有级别测试后,场景会自动跳转下一深度场景中进行训练。

42、进一步的,步骤5中所述的视差,计算方法如下:

43、;

44、其中,代表目标位置,和分别代表左眼和右眼的位置,表示左眼与目标之间的夹角,表示右眼与目标之间的夹角,表示左眼与目标之间的距离,表示右眼与目标之间的距离。

45、有益效果

46、1.本专利技术通过构建具有不同深度线索的训练场景,在虚拟现实环境中为用户提供沉浸式体验并直观的感受视差,从而提升深度知觉。传统的深度知觉训练技术通常只提本文档来自技高网...

【技术保护点】

1.一种基于多深度线索场景的深度知觉训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤1中所述的实现用户与训练场景交互,具体包括:

3.根据权利要求2所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2所述的三个不同的训练场景,即深度知觉的第一训练场景、第二训练场景和第三训练场景,具体包括:

4.根据权利要求3所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2所述的保留双眼视差,具体包括:修改所述场景中物体大小和修改线性透视。

5.根据权利要求4所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2中所述的修改所述场景中物体大小,具体如下:

6.根据权利要求5所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2中所述的修改线性透视,具体如下:

7.根据权利要求1所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤3中所述的对待训练用户进行训练,具体如下:

8.根据权利要求7所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤4中所述的分析报告,至少包括:用户训练准确率、用户完成时间、熵值和立体视锐度,其中:

9.根据权利要求8所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤5中所述的根据分析报告,调整视觉训练场景,继续训练,具体包括:

10.根据权利要求9所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤5中所述的视差,计算方法如下:

...

【技术特征摘要】

1.一种基于多深度线索场景的深度知觉训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤1中所述的实现用户与训练场景交互,具体包括:

3.根据权利要求2所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2所述的三个不同的训练场景,即深度知觉的第一训练场景、第二训练场景和第三训练场景,具体包括:

4.根据权利要求3所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2所述的保留双眼视差,具体包括:修改所述场景中物体大小和修改线性透视。

5.根据权利要求4所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2中所述的修改所述场景中物体大小,具体如下:

...

【专利技术属性】
技术研发人员:张婷婷张璇夏岭毛亿杨毅辛元雪
申请(专利权)人:河海大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1