【技术实现步骤摘要】
一种基于目标识别的人体姿态检测方法及系统
[0001]本专利技术涉及目标识别
,特别是涉及一种基于目标识别的人体姿态检测方法及系统。
技术介绍
[0002]现有关于异常行为检测系统的研究往往将其目标场景设定在居家环境、商场大厅环境这种空旷的场景下,或者排队场景,室外环境这种对目标特征信息足以充分完成异常判断的场景,针对公交车厢场景进行的研究相对较少。如图1和图2所示,公交车厢场景相对于其他场景的场景特点是场景中的人体图像往往遮挡严重,后续需要进行的行为判断研究及其信息需求较多(指完成特征提取后可能需要利用这些特征进行跌倒判别、过界判别、人脸识别、快速移动判别、打斗判别、坐稳抓稳判别等等,其可能需要依据不同的特征,如抓稳需要手部的边界框、过界需要人体边界框、跌倒需要姿态信息、人脸识别需要头部边界框等等)。
[0003]在智能公交技术的研究过程中,依靠公交车厢内的监控摄像对车厢内发生的乘客异常行为进行检测是一项十分主要的工作。现有研究针对图像内的行为检测系统常分为三个阶段:其一是特征提取,即将复杂的图像信息提取为更精炼的信息,主要包括用传统图像处理方法检测的运动物体信息、边缘信息等(这部分主要是深度网络广泛应用前的方法,现有研究已经不涉及了),用目标识别算法检测的人体目标信息(即人体的边界框),用姿态估计算法检测的人体姿态信息(通常是人体关键点骨架);其二是特征处理,不同研究根据其各自方法的需求往往需要对检测到的特征进行进一步的处理,如若需要依照视频判断行为需要进行帧间目标匹配,若用人体目标作为表征行为的特 ...
【技术保护点】
【技术特征摘要】
1.一种基于目标识别的人体姿态检测方法,其特征在于,所述方法基于人体姿态检测网络模型,所述人体姿态检测网络模型包括:特征提取网络、关键部位预测网络、肢体热图预测网络和后处理模块;所述特征提取网络的输出端分别与所述关键部位预测网络的输入端和所述肢体热图预测网络的输入端连接,所述关键部位预测网络的输出端和所述肢体热图预测网络的输出端均与所述后处理模块的输入端连接;所述方法包括如下步骤:获取目标场景下的待识别图片;利用所述特征提取网络对所述待识别图片进行特征提取,获得特征数据;根据所述特征数据,利用所述关键部位预测网络进行关键部位的预测,获得人体目标的关键部位及人体目标;所述关键部位包括头部、躯干、左手、右手、右脚和左脚;根据所述特征数据,利用所述肢体热图预测网络进行肢体热图的预测,获得人体目标的肢体热图;利用所述后处理模块,基于所述肢体热图对同一人体目标的关键部位进行回归连接,确定所述人体目标的姿态信息。2.根据权利要求1所述的基于目标识别的人体姿态检测方法,其特征在于,所述特征提取网络包括:20层的卷积层;所述关键部位预测网络包括:5层的卷积层,及5层的卷积层后连接的两层的全连接层;所述肢体热图预测网络为沙漏网络,所述沙漏网络包括5层的卷积层。3.根据权利要求1所述的基于目标识别的人体姿态检测方法,其特征在于,所述获取目标场景下的待识别图片,之前还包括:构建关键部位数据集和连接肢体数据集;基于所述关键部位数据集训练所述关键部位预测网络;基于所述连接肢体数据集训练所述肢体热图预测网络。4.根据权利要求3所述的基于目标识别的人体姿态检测方法,其特征在于,所述构建关键部位数据集和连接肢体数据集,具体包括:获取目标场景下的多个样本图片;在每个所述样本图片中标注出人体目标的人体边界框、头部边界框、躯干边界框、左手边界框、右手边界框、右脚边界框和左脚边界框,获得每个所述样本图片的关键部位标签;其中,所述躯干边界框为可倾斜的矩形,所述人体边界框、所述头部边界框、所述左手边界框、所述右手边界框、所述右脚边界框和所述左脚边界框均为不可倾斜的矩形;在每个所述样本图片中标注出人体目标的右上臂边界框、右下臂边界框、左上臂边界框、左下臂边界框、右大腿边界框、右小腿边界框、左大腿边界框和左小腿边界框,获得每个所述样本图片的连接肢体标签;其中,右上臂边界框、右下臂边界框、左上臂边界框、左下臂边界框、右大腿边界框、右小腿边界框、左大腿边界框和左小腿边界框均为可倾斜的矩形;将每个所述样本图片的关键部位标签转换为数组形式,获得关键部位数据集;将每个所述样本图片的连接肢体标签转换为由中心向边缘衰减的热图,获得右上臂热图、右下臂热图、左上臂热图、左下臂热图、右大腿热图、右小腿热图、左大腿热图和左小腿热图;将每个所述样本图像中同一人体目标的右上臂热图、右下臂热图、左上臂热图、左下臂
热图、右大腿热图、右小腿热图、左大腿热图和左小腿热图整合成右臂热图、左臂热图、右腿热图和左腿热图,获得连接肢体数据集。5.根据权利要求3所述的基于目标识别的人体姿态检测方法,其特征在于,用于训练关键部位预测网络的损失函数为:loss
keypart
=λ1person_corr_loss+λ2person_confi_loss+λ3noperson_confi_loss+λ4part_corr_loss+λ5part_confi_loss+λ6nopart_confi_loss+λ7angle_loss其中,loss
keypart
表示用于训练关键部位预测网络的损失函数;person_corr_loss表示人体目标坐标损失,person_corr_loss表示人体目标坐标损失,x、y、w和h分别为预测得到的第i行第j列单元格的人体边界框的中心点横坐标、中心点纵坐标、宽度值和高度值,和分别为标注得到的第i行第j列单元格的人体边界框的中心点横坐标、中心点纵坐标、宽度值和高度值,表示第i行第j列单元格是否存在人体目标,当存在人体目标,的值为1,当不存在人体目标,的值为0;person_confi_loss为人体目标正样本置信度损失,person_confi_loss为人体目标正样本置信度损失,c为预测得到的第i行第j列单元格的人体边界框的置信度;noperson_confi_loss为人体目标负样本置信度损失,表示第i行第j列单元格是否不存在人体目标,当不存在人体目标的值为1,当存在人体目标的值为0;part_corr_loss为关键部位目标坐标损失,part_corr_loss为关键部位目标坐标损失,part_corr_loss为关键部位目标坐标损失,表示第i行第j列单元格是否存在第k个关键部位,当存在第k个关键部位,的值为1,当不存在第k个关键部位,的值为0,第k个关键部位为头部、躯干、左手、右手、右脚或左脚;x
k
、y
k
、w
k
和h
k
分别为预测得到的第i行第j列单元格的第k个关键部位边界框的中心点横坐标、中心点纵坐标、宽度值和高度值,和分别为标注得到的第i行第j列单元格的第k个关键部位边界框的中心点横坐标、中心点纵坐标、宽度值和高度值;part_confi_loss为关键部位目标正样本置信度损失,part_confi_loss为关键部位目标正样本置信度损失,其中,c
k
表示预测得到的第i行第j列单元格的第k个关键...
【专利技术属性】
技术研发人员:张晓平,孟祥鹏,王力,郑远鹏,吴宜通,冯辉,马新雨,张嘉林,
申请(专利权)人:北方工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。