System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 基于眼部特征点和眼部区域分割结果的情感识别数据集制造技术_技高网

基于眼部特征点和眼部区域分割结果的情感识别数据集制造技术

技术编号:40033515 阅读:9 留言:0更新日期:2024-01-16 18:36
本发明专利技术提出一种基于眼部特征点和眼部区域分割结果的情感识别数据集。所述基于眼部特征点和眼部区域分割结果的情感识别数据集包括以下步骤:步骤一,采集用户浏览网络信息时的面部图像,实时记录用户的情感变化;步骤二,对采集到的图像进行人脸检测,分割出面部区域;步骤三,得到面部区域后,在面部区域进行特征点检测,根据特征点之间的相对位置关系分割左眼和右眼区域;步骤四,利用开源数据标注软件对分割出的眼部区域图像进行眼部特征点标注;步骤五,根据眼部特征点之间的相对位置关系以及眼部分割图像之间的相互占比及各区域大小的差异实现情感的识别。

【技术实现步骤摘要】

本专利技术涉及计算机视觉领域中的图像分割、特征点定位和情感识别,尤其涉及一种基于眼部特征点和眼部区域分割结果的情感识别数据集


技术介绍

1、眼睛是心灵的窗户,瞳孔大小的变化可以反映用户的健康状态、心理状态、情绪波动和认知水平的变化。在医学领域,瞳孔状态对疾病的预防和诊断具有重要意义,如通过测量患者瞳孔位置判断斜视程度,通过眼部特征点定位进行美容校正、通过观测瞳孔大小对出现中毒现象或患有某些疾病的患者进行初步诊断等。当前对于瞳孔状态的判断需要医生通过经验进行自主诊断,主观性较强。在教育领域,通过对学生学习过程中眼部状态变化的分析,可了解学生的兴趣点。特别是随着在线教育的发展,传统课堂逐渐向线上教育发展。线上教育具有一对多的特点,当学生过多时,教师无法实时观测到所有学生的学习状态。通过采集学生上课时的视频,对视频进行分析,从而判断学生的上课状态以及对知识的掌握程度。当前老师更多通过学生的表情判断学生的状态,但是表情可伪装性较强,即使学生不能理解所学内容也可以做出具有迷惑性的表情,进而影响老师的判断。相比于表情,眼部状态的可伪装性较弱,因此通过眼部状态可以更加准确的判断学生上课时的状态。但是,眼部区域较小,仅在脸部占有很小的一部分,在实际生活中佩戴眼镜、遮挡、反光等都增加了眼部状态分析的难度。此外,在普通摄像机采集到的图像中,瞳孔与虹膜颜色接近,更是增加了眼部状态分析的难度。

2、尽管对眼部状态的研究已经进行了相当长的一段时间,但是相关应用却一直难以实现。已有的瞳孔数据集与实际生活中采集到的图像差距较大,大部分数据是在理想条件下采集得到的,如casia.v1、casia.v2,这些数据集中的图像去除了影响图像质量的噪声因素,虹膜均匀的分布在图像中,眼部结构清晰,图像质量高。但是在真实环境下,影响图像质量的因素较多,该种类型的数据不能在实际中得到应用。为了解决上述问题,casia.v3通过改变光照强度增加了数据的多样性,casia.v4考虑了更多影响图像质量的因素,如采集用户移动过程中的图像、采集用户与摄像机在不同距离情况下的图像和低分辨率的图像。ice2005数据集在图像采集过程中,通过使用外加光源增加眼周的亮度,从而提升图像的清晰度,该数据集考虑了睫毛遮挡和斜视的情况。ice2006是对ice2005数据集的扩展,同样在数据的采集过程中增加外加光源进行辅助。mmu1数据集要求用户与摄像机距离在7~25cm之间,为了采集到清晰的图像,限制了用户与摄像机的距离。相比于mmu1,mmu2将用户与摄像机的距离增大到47~53cm之间,同时考虑了眼睫毛与眼睛位置变化对数据质量的影响。wvu数据集考虑了更多影响图像质量的因素,包括眼睛斜视、摄像机聚焦不良、环境光反射、图像的旋转以及睫毛等遮挡物的影响。以上数据集在图像采集过程中均增加了人工的指导,影响图像质量的因素较少,并且均是利用红外摄像机采集得到。与利用红外摄像机采集图像不同,lpw数据集利用头戴式摄像机采集得到,采集场景包括室内和室外,在无光源辅助情况下采集眼部活动时的视频,图像考虑了佩戴眼镜、佩戴美瞳和化妆等情况的影响。无论是利用头戴式摄像机还是红外摄像机,利用专业设备都会限制实际的应用。为了尽可能接近于实际应用场景,upol数据集利用可见光作为辅助光源,在近距离情况下采集眼部图像。uriris.v1数据集包含运动模糊、聚焦模糊、眼睑和睫毛的遮挡以及闭眼等情况,图像采集过程中要求眼睛与摄像机的距离小于50cm。ubiris.v2是最接近实际应用情况的数据集,该数据集在光源辅助情况下使用普通摄像机采集眼部图像,图像采集距离为4~8m。在对用户无任何限制的情况下,通过改变用户与摄像机的距离,采集用户移动过程中图像的方式增加图像的多样性。2021年,德国图宾根大学的研究人员创建了迄今为止全球最大的人眼图像公开数据集teyed,该数据集使用7种分辨率不同的眼动追踪器采集眼部图像,眼部图像清晰,但是由于是通过头戴式摄像机所采集得到的,因此也会限制应用的范围。

3、通过对已有数据集的分析可以发现,由于眼部结构的特点,瞳孔较小并且颜色与虹膜接近,因此为了能够采集到清晰的眼部图像,从而对眼部状态进行分析,需要利用专业设备在近距离范围内采集眼部数据,特别是需要红外光源或普通光源进行辅助。实际生活中,用户在使用电脑、手机等便携式设备浏览信息时,该类设备仅配备有普通摄像机,并且增加外加光源会影响用户的体验。此外,缺乏仅基于眼部状态实现用户情感状态分析的相关数据集。因此,针对已有数据集的不足,如何在无任何光源辅助情况下利用普通摄像机仅通过分析眼部状态的变化对用户情感和状态进行分析成为亟待解决的问题。另外,已有数据集未同时提出眼部特征点标定结果和眼部结构分割结果。基于深度学习对模型进行训练过程中,训练数据与实际应用数据相符程度越高,模型的实际应用效果越好。

4、因此,有必要提出一种基于眼部特征点和眼部区域分割结果的情感识别数据集解决上述技术问题。


技术实现思路

1、针对现有数据集中存在的上述问题,即(1)需要利用红外摄像机、头戴式摄像机等专业设备进行图像采集;(2)需要利用红外光源或普通光源提高采集图像的清晰度;(3)同一数据集中仅提出了眼部结构分割结果;(4)缺乏仅基于眼部状态进行情感分析的数据集,本专利技术提出一种基于眼部特征点和眼部区域分割结果的情感识别数据集。

2、本专利技术提出的基于眼部特征点和眼部区域分割结果的情感识别数据集,所述数据集的采集包括以下步骤:

3、步骤一,采集用户浏览网络信息时的面部图像,实时记录用户的情感变化;

4、步骤二,对采集到的图像进行人脸检测,分割出面部区域;

5、步骤三,得到面部区域后,在面部区域进行特征点检测,根据特征点之间的相对位置关系分割左眼和右眼区域;

6、步骤四,利用开源数据标注软件对分割出的眼部区域图像进行眼部特征点标注,眼部特征点标注区域包括瞳孔、巩膜和虹膜;

7、步骤五,根据眼部特征点之间的相对位置关系以及眼部分割图像之间的相互占比及各区域大小的差异实现情感的识别;

8、步骤六:同时将眼部结构分割结果、特征点标注结果和情感类别进行保存形成本专利技术的基于眼部特征点和眼部结构分割结果的数据集。

9、优选的,所述步骤一中,采集用户浏览网络信息时的面部图像时使用普通摄像机则可。

10、优选的,所述步骤二中,在采集到的面部图像的原始数据中,是基于人脸检测算法在采集到的面部图像中检测出人脸区域,可用人脸检测算法包括mtcnn、dlib、haar。

11、与相关技术相比较,本专利技术提出的基于眼部特征点和眼部区域分割结果的情感识别数据集具有如下有益效果:

12、本专利技术提出的基于眼部特征点和眼部区域分割结果的情感识别数据集,在没有外加光源辅助的情况下利用低成本的普通摄像机采集眼部结构图像,图像中不仅包含有健康用户的眼部图像,而且包含有患有眼部疾病患者的眼部图像;此外,该数据集对于同一幅眼部图像同时提出了分割本文档来自技高网...

【技术保护点】

1.一种基于眼部特征点和眼部区域分割结果的情感识别数据集,其特征在于,所述数据集的采集包括以下步骤:

2.根据权利要求1所述的基于眼部特征点和眼部区域分割结果的情感识别数据集,其特征在于,所述步骤一中,采集用户浏览网络信息时的面部图像时使用普通摄像机。

3.根据权利要求1所述的基于眼部特征点和眼部区域分割结果的情感识别数据集,其特征在于,所述步骤二中,在采集到的面部图像的原始数据中,是基于人脸检测算法在采集到的面部图像中检测出人脸区域,可用人脸检测算法包括MTCNN、Dlib、Haar。

【技术特征摘要】

1.一种基于眼部特征点和眼部区域分割结果的情感识别数据集,其特征在于,所述数据集的采集包括以下步骤:

2.根据权利要求1所述的基于眼部特征点和眼部区域分割结果的情感识别数据集,其特征在于,所述步骤一中,采集用户浏览网络信息时的面部图像时使用普通摄...

【专利技术属性】
技术研发人员:张俊杰黄荣怀刘德建李卓然费程
申请(专利权)人:北京师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1