System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及数据处理,尤其涉及一种感觉器官响应一致性评估方法、系统、终端及计算机可读存储介质。
技术介绍
1、感觉器官是感受外界事物刺激的器官,包括眼、耳、鼻、舌、身等。大脑是一切感官的中枢;器官的响应一致性往往可以反映出器官的状态,以人的左右眼为例,若左右眼响应一致,则能够判断用户眼球的响应活动正常,说明用户无眼动障碍,相反,如果左右眼响应不一致,则说明用户可能存在相关的眼动障碍。同时,通过眼动障碍可以进一步了解到当前用户所属的人群类别或者认知状态。
2、现有技术中,对器官的响应一致性进行计算时,计算过程受外部影响较大,得到的参数或者指标的精确度不够高,无法对器官的响应一致性进行准确判断,而且参数或者指标的获取往往依赖昂贵且复杂的设备。
3、因此,现有技术还有待于改进和发展。
技术实现思路
1、本专利技术的主要目的在于提供一种感觉器官响应一致性评估方法、系统、终端及计算机可读存储介质,旨在解决现有技术中对器官的响应一致性进行计算时,得到的参数或者指标的精确度不够高,无法对器官的响应一致性进行准确判断的问题。
2、为实现上述目的,本专利技术提供一种感觉器官响应一致性评估方法,所述一种感觉器官响应一致性评估方法包括如下步骤:
3、对用户进行视觉刺激,对受到视觉刺激的所述用户进行视频采集得到面部视频,将所述面部视频进行预处理,得到目标面部视频,根据所述目标面部视频获取用户的人脸图像和五官图像;
4、将所述人脸图像与平静状态的
5、若所述响应位置为人脸,则将所述人脸图像输入到预先训练好的深度学习模型,得到所述人脸图像的关键点位置,并对所述关键点位置的位置变化进行监测,得到面部肌肉活动信息;
6、对所述面部肌肉活动信息进行差异量化,得到左右脸面部肌肉运动差异,根据所述左右脸面部肌肉运动差异对用户左右脸面部肌肉响应一致性进行评估。
7、若所述响应位置为五官,则定位所述五官图像中的眼部图像,跟踪所述眼部图像得到眼球的位置数据,根据所述位置数据计算得到双眼运动参数;
8、对所述双眼运动参数进行差异量化,得到左右眼运动差异,根据所述左右眼运动差异对用户左右眼响应一致性进行评估。
9、可选地,所述的感觉器官响应一致性评估方法,其中,所述对用户进行视觉刺激,对受到视觉刺激的所述用户进行视频采集得到面部视频,将所述面部视频进行预处理,得到目标面部视频,具体包括:
10、使用特定的文字或图案对用户进行视觉刺激,对受到视觉刺激的所述用户进行视频采集得到面部视频,所述面部视频由摄像头或专用眼动仪对用户的面部进行视频采集得到;
11、对所述面部视频进行去噪处理、图像增强处理和图像稳定化处理,得到目标面部视频。
12、可选地,所述的感觉器官响应一致性评估方法,其中,所述对所述关键点位置的位置变化进行监测,得到面部肌肉活动信息,具体包括:
13、根据所述关键点位置确定左脸关键点集合和右脸关键点集合,对多个所述关键点进行监测,得到多个所述关键点的位置变化;
14、根据所述位置变化计算得到面部肌肉活动幅度和面部肌肉活动速度,根据所述左脸关键点集合、所述右脸关键点集合、所述幅度和所述面部肌肉活动速度得到面部肌肉活动信息。
15、可选地,所述的感觉器官响应一致性评估方法,其中,所述左右脸面部肌肉运动差异包括水平方向上的左右脸面部肌肉运动差异、垂直方向上的左右脸面部肌肉运动差异和左右脸部关键点的平均运动差异;
16、所述对所述面部肌肉活动信息进行差异量化,得到左右脸面部肌肉运动差异,具体包括:
17、对水平方向上的所述面部肌肉活动信息进行差异量化,得到水平方向上的左右脸面部肌肉运动差异:
18、
19、其中,表示在水平方向上的左脸关键点集合,在水平方向上的右脸关键点集合;
20、对垂直方向上的所述面部肌肉活动信息进行差异量化,得到垂直方向上的左右脸面部肌肉运动差异:
21、
22、其中,表示在垂直方向上的左脸关键点集合,表示在垂直方向上的右脸关键点集合;
23、计算左右脸部关键点的平均运动差异:
24、
25、其中,n表示左脸关键点集合或者右脸关键点集合中的关键点数量,i表示关键点的序数,表示左脸关键点集合中的第i个关键点,表示右脸关键点集合中的第i个关键点。
26、可选地,所述的感觉器官响应一致性评估方法,其中,所述定位所述五官图像中的眼部图像,跟踪所述眼部图像得到眼球的位置数据,根据所述位置数据计算得到双眼运动参数,具体包括:
27、使用眼部特征检测器在所述五官图像中定位出眼睛的位置和边界框,根据所述位置和所述边界框得到眼部图像;
28、通过瞳孔中心检测法或注视点估计法跟踪所述眼部图像,得到眼球的位置数据;
29、根据所述位置数据计算得到左右眼球的垂直运动轨迹和水平运动轨迹。
30、可选地,所述的感觉器官响应一致性评估方法,其中,所述左右眼运动差异包括水平方向的左右眼运动差异和垂直方向的左右眼运动差异;
31、所述对所述双眼运动参数进行差异量化,得到左右眼运动差异,具体包括:
32、对所述水平运动轨迹进行差异量化,得到水平方向的左右眼运动差异:
33、
34、其中,hl表示左眼球的水平运动轨迹,hr表示右眼球的水平运动轨迹;
35、对所述垂直运动轨迹进行差异量化,得到垂直方向的左右眼运动差异:
36、
37、其中,vl表示左眼球的垂直运动轨迹,vr表示右眼球的垂直运动轨迹。
38、可选地,所述的感觉器官响应一致性评估方法,其中,所述感觉器官响应一致性评估方法,还包括:
39、若所述响应位置为人脸和五官,则根据所述人脸图像和所述五官图像得到面部肌肉活动信息和双眼运动参数;
40、对所述面部肌肉活动信息和所述双眼运动参数进行差异化,得到左右脸面部肌肉运动差异和左右眼运动差异;
41、根据所述左右脸面部肌肉运动差异和所述左右眼运动差异,对用户左右脸面部肌肉响应一致性和用户左右眼响应一致性进行评估。
42、此外,为实现上述目的,本专利技术还提供一种感觉器官响应一致性评估系统,其中,所述感觉器官响应一致性评估系统包括:
43、面部视频采集模块,用于对用户进行视觉刺激,对受到视觉刺激的所述用户进行视频采集得到面部视频,将所述面部视频进行预处理,得到目标面部视频,根据所述目标面部视频获取用户的人脸图像和五官图像;
44、响应位置获取模块,用于将所述人脸图像与平静状态的人脸图像进行对比,并将所述五官图像与平静状态的五官图像进行对比,得到响应位置;
45、面部信本文档来自技高网...
【技术保护点】
1.一种感觉器官响应一致性评估方法,其特征在于,所述的感觉器官响应一致性评估方法包括:
2.根据权利要求1所述的感觉器官响应一致性评估方法,其特征在于,所述对用户进行视觉刺激,对受到视觉刺激的所述用户进行视频采集得到面部视频,将所述面部视频进行预处理,得到目标面部视频,具体包括:
3.根据权利要求1所述的感觉器官响应一致性评估方法,其特征在于,所述对所述关键点位置的位置变化进行监测,得到面部肌肉活动信息,具体包括:
4.根据权利要求3所述的感觉器官响应一致性评估方法,其特征在于,所述左右脸面部肌肉运动差异包括水平方向上的左右脸面部肌肉运动差异、垂直方向上的左右脸面部肌肉运动差异和左右脸部关键点的平均运动差异;
5.根据权利要求1所述的感觉器官响应一致性评估方法,其特征在于,所述定位所述五官图像中的眼部图像,跟踪所述眼部图像得到眼球的位置数据,根据所述位置数据计算得到双眼运动参数,具体包括:
6.根据权利要求5所述的感觉器官响应一致性评估方法,其特征在于,所述左右眼运动差异包括水平方向的左右眼运动差异和垂直方向的左右眼运动
7.根据权利要求1所述的感觉器官响应一致性评估方法,其特征在于,所述感觉器官响应一致性评估方法,还包括:
8.一种感觉器官响应一致性评估系统,其特征在于,所述感觉器官响应一致性评估系统包括:
9.一种终端,其特征在于,所述终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的感觉器官响应一致性评估程序,所述感觉器官响应一致性评估程序被所述处理器执行时实现如权利要求1-7任一项所述的感觉器官响应一致性评估方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有感觉器官响应一致性评估程序,所述感觉器官响应一致性评估程序被处理器执行时实现如权利要求1-7任一项所述的感觉器官响应一致性评估方法的步骤。
...【技术特征摘要】
1.一种感觉器官响应一致性评估方法,其特征在于,所述的感觉器官响应一致性评估方法包括:
2.根据权利要求1所述的感觉器官响应一致性评估方法,其特征在于,所述对用户进行视觉刺激,对受到视觉刺激的所述用户进行视频采集得到面部视频,将所述面部视频进行预处理,得到目标面部视频,具体包括:
3.根据权利要求1所述的感觉器官响应一致性评估方法,其特征在于,所述对所述关键点位置的位置变化进行监测,得到面部肌肉活动信息,具体包括:
4.根据权利要求3所述的感觉器官响应一致性评估方法,其特征在于,所述左右脸面部肌肉运动差异包括水平方向上的左右脸面部肌肉运动差异、垂直方向上的左右脸面部肌肉运动差异和左右脸部关键点的平均运动差异;
5.根据权利要求1所述的感觉器官响应一致性评估方法,其特征在于,所述定位所述五官图像中的眼部图像,跟踪所述眼部图像得到眼球的位置数据,根据所述位置数据计算得到双眼运动参数,具体包括...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。