【技术实现步骤摘要】
融合人脸热成像的驾驶员佩戴口罩警觉度检测方法及系统
[0001]本专利技术涉及车辆辅助安全
,具体涉及一种融合人脸热成像的驾驶员佩戴口罩警觉度检测方法及系统。
技术介绍
[0002]驾驶员警觉度的检测和预警是确保驾驶员和乘客在道路上安全行驶的关键手段,它是车辆辅助安全
内的研究热点。客观评价法是用于检测驾驶员警觉度的主要方法。目前主要的驾驶员警觉度客观评价方法主要有以下四种分类:基于车辆状态信息的警觉度评估方法,基于驾驶员动作特征的警觉度评估方法,基于驾驶员生理电信号的警觉度评估方法,基于多模态信息融合的警觉度评估方法。现在的主流发展方向是基于多模态信息融合的警觉度评估方法,这种方法可以集成前三种方法的优点。
[0003]现有的方法结合可见光的驾驶员警觉度评估方法,得益于成熟的人眼和嘴部轮廓锚定算法,结合可见光的多模态信息融合的警觉度评估方式可以很容易的捕捉到眼睛和嘴部开闭状态,从而检测出驾驶员警觉度状态,但是对眼睛和嘴部轮廓极其依赖,驾驶员因环境需求佩戴口罩的情况下,嘴部轮廓被掩盖,检测准确率会极大受损 ...
【技术保护点】
【技术特征摘要】
1.融合人脸热成像的驾驶员佩戴口罩警觉度检测方法,其特征在于,包括以下步骤:S1:实时采集驾驶员的人脸热图像和周围的环境温度信号,对人脸热图像进行降噪处理得到数据集;S2:利用Yolov5s视觉算法对人脸热图像中的关键区域进行捕捉,所述关键区域包括“眼
‑
眉区”“口罩区”“人脸区”;S3:利用热图像帧间约束关系针对S2所捕捉的关键区域中漏检和误检的部分进行阈值判定并校正;S4:从S3校正后的关键区域中提取出左右额头,左右眼,口罩区的热体素信号和平均温度信号,同时还提取出全局图像的平均温度信号;而后将提取出的所有信号与S1采集的实时环境温度信号进行对齐并拼接;S5:对S4拼接得到的数据进行归一化,而后将归一化后的数据输入轻量混合注意力警觉度检测模型进行警觉度检测,当判定驾驶员为非警觉状态时,启动预警。2.根据权利要求1所述的融合人脸热成像的驾驶员佩戴口罩警觉度检测方法,其特征在于,S2包括以下步骤:S21:从S1降噪后的数据集中随机选取部分图像数据进行标定,对“眉
‑
眼区”“口罩区”“人脸区”进行了标定;S22:利用S21标定的数据对YOLOv5s进行训练获取训练好的YOLOv5s;S23:利用S22训练好的Yolov5s对数据集剩余图像数据中的人脸“眉
‑
眼区”“口罩区”“人脸区”进行捕捉。3.根据权利要求1所述的融合人脸热成像的驾驶员佩戴口罩警觉度检测方法,其特征在于,S3包括以下步骤:S31:计算t(n)、t(n
‑
1)帧图像“眼
‑
眉区”“口罩区”“人脸区”的笛卡尔坐标角变化ΔJ:其中X
center
、Y
center
是目标区域中心点横、纵坐标;S32:计算t(n)、t(n
‑
1)帧图像“眼
‑
眉区”“口罩区”“人脸区”的欧氏距离变化ΔL:S33:计算t(n)、t(n
‑
1)帧图像“眼
‑
眉区”“口罩区”“人脸区”的面积变化ΔS:ΔS=|W(n
‑
1)
×
H(n
‑
1)
‑
W(n)
×
H(n)|其中W、H是目标区域的宽和高;S34:计算t(n)、t(n
‑
1)帧图像“眼
‑
眉区”“口罩区”的平均灰度值(均温)变化ΔT并进行归一化;S35:分别对ΔJ、ΔL、ΔS和ΔT进行阈值判定,其中阈值通过实验选取,若ΔJ、ΔL、ΔS和ΔT全部判定成功则保留该区域坐标,若任意一个判定失败或t(n)帧该区域不存在,则依据t(n
‑
1)帧该区域位置信息和t(n)帧判定成功的区域的位置信息生成该区域坐标,计算公式如下:
W_out
j
(n)=W
j
(n
‑
1)+Σθ
i
(W_out
i
(n)/W
i
(n
‑
1)
‑
1)/Σθ
i
H_out
j
(n)=H
j
(n
‑
1)+Σθ
i
(H_out
i
(n)/H
i
(n
‑
1)
‑
1)/Σθ
i
其中j是t(n
‑
1)判定失败区域位置信息,i是其余判定成功区域位置信息,θ则是判定因子,该区域判定成功θ=1,否则θ=0。4...
【专利技术属性】
技术研发人员:曾振华,周子杰,张祖涛,吴小平,
申请(专利权)人:西南交通大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。