一种基于CBC分类器的Attention-YOLOv5网络手势识别方法技术

技术编号:37058006 阅读:22 留言:0更新日期:2023-03-29 19:34
本发明专利技术公开了一种基于CBC分类器的Attention

【技术实现步骤摘要】
一种基于CBC分类器的Attention

YOLOv5网络手势识别方法


[0001]本专利技术涉及目标检测和识别领域,特别是一种基于CBC分类器的Attention

YOLOv5网络手势识别方法。

技术介绍

[0002]在过去几十年中,计算机技术的飞速发展,让人们己经与计算机密不可分,其中,人与计算机的信息交互是必不可缺的一步。人机交互最常见模式是依赖于简单的机械装置,即键盘和鼠标,其他的还有诸如触摸屏等。尽管交互方式广泛存在于人们的日常生活中并被熟练使用,其中一种主流趋势就是手势识别技术,是更符合人类习惯的人机交互方式。手势识别已在AR、人机交互、手势操控、辅助驾驶、手语认知、机器控制等领域广泛应用,其中基于视觉的手势识别、基于数据手套的手势识别、基于特殊标记的手势识别、基于加速度传感器的手势识别也在日益趋于完善;另外手势识别也可以应用于监狱服刑人员的行为实时监测,实现监狱服刑人员危险行为的预测和预警。手势是一种人类行为的基本特征,是人际交往过程中不可缺少的一部分。手势识别技术的发展,为人与机器或其他设备的交互提供了可能。根据手势在时间和空间上的差异,手势可分为静态手势和动态手势,对静态手势的研究主要考虑手势的位置信息,而研究动态手势除了要考虑手势空间位置变化,还需要考虑手势在时序中的变化规律。目前在手势交互领域存在由于手势特征不敏感,导致识别效率和精度较低的问题。

技术实现思路

[0003]针对上述现有技术存在的问题,本专利技术提供了一种基于CBC分类器的Attention

YOLOv5网络手势识别方法,能够提高对手势特征的识别效果和识别精度。
[0004]本专利技术公开了一种基于CBC分类器的Attention

YOLOv5网络手势识别方法,包括:
[0005]S1:基于制作的手势图像数据集和标签,训练得到YOLOv5网络模型;
[0006]S2:在YOLOv5网络模型中添加CBMA模块,使得重要目标特征占有更大处理比重,并训练得到Attention

YOLOv5网络模型;
[0007]S3:建立基于R

vine Copula改进的CBC分类器,CBC分类器接于YOLOv5的输出端;
[0008]S4:获取待识别手势图像,并基于YOLOv5网络模型和改进的CBC分类器检测识别,输出结果。
[0009]进一步地,所述的步骤S1,包括:
[0010]对手势图像数据集中的若干手势图片的进行数据集特征划分与标注;
[0011]将得到的手势特征图片与标注好的标签,分别置于待训练网络的imgs和labels模块下;
[0012]利用标注的手势图片训练得到YOLOv5网络模型。
[0013]进一步地,所述的步骤S1还包括:测试训练的YOLOv5网络模型,若合格则继续。
[0014]进一步地,所述的步骤S2,包括:
[0015]对于YOLOv5网络模型,修改yolov5s.yaml,将Backbone的C3模块修改为添加注意力机制后的CBAMC3模块,参数不变;
[0016]在common.py中添加CBAMC3模块;
[0017]修改yolo.py,添加额外的判断语句;
[0018]在训练时调用修改后的yolov5s.yaml,用于验证注意力机制在YOLOv5网络模型上的有效性。
[0019]进一步地,所述步骤S2,还包括:
[0020]通过测试图像检测Attention

YOLOv5网络模型的运行结果。
[0021]进一步地,所述步骤S3包括:
[0022]基于R

vine Copula方法改进贝叶斯分类器得到CBC分类器,使得CBC分类器根据数据特征拟合Pair Copula函数,以保留数据之间的相关性。
[0023]进一步地,所述步骤S3具体包括:
[0024]计算每一个类别下属性之间的Kendall相关系数阵,构造出每一棵树的结构,使得每一棵树τ的绝对值最大,从而建立R

vine Copula模型;
[0025]用数据去拟合每一个Pair Copula模型,通过AIC准则选取每一个Pair Copula函数的类型,并用极大似然估计方法对参数进行估计;
[0026]采用高斯核密度函数估计边缘概率密度函数,结合前面算出的Pair Copula函数的结果,得到每个类别下属性的联合概率密度;
[0027]对于未知样本X,通过比较P(Ci|X)的大小,判别出样本X属于哪一类。
[0028]本专利技术还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上文所述的基于CBC分类器的Attention

YOLOv5网络手势识别方法。
[0029]本专利技术还公开了一种计算机设备,包括:存储器、处理器以及存储在所述处理器并可以在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于CBC分类器的Attention

YOLOv5网络手势识别方法。
[0030]本专利技术至少具有以下有益效果:
[0031]本专利技术通过引入注意力机制,改善了YOLOv5目标检测网络特征差异不敏感问题。使用R

vine Copula模型改进朴素贝叶斯分类器,CBC分类器保留属性间相关性,解决图片分类精度缺失问题。相比于之前的YOLOv5网络,本专利技术的精确度、平均精度和召回率都得到显著提升。
[0032]本专利技术的其他有益效果将在具体实施方式部分详细说明。
附图说明
[0033]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0034]图1是本专利技术优选实施例公开的基于CBC分类器的Attention

YOLOv5网络手势识别方法的流程图。
[0035]图2是本专利技术优选实施例公开的CBAM模块结构示意图。
[0036]图3是本专利技术优选实施例公开的Attention

YOLOv5网络模型的结构图。
[0037]图4是图3中CBAM模块的具体结构图。
[0038]图5是本专利技术优选实施例公开的R

vine的结构图。
[0039]图6是本专利技术优选实施例公开的改进CBC分类器的方法流程图。
[0040]图7是本专利技术优选实施例公开的训练好的YOLOv5网络模型的实施状态图。
[0041]图8是本专利技术优选实施例公开本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于CBC分类器的Attention

YOLOv5网络手势识别方法,其特征在于,包括:S1:基于制作的手势图像数据集和标签,训练得到YOLOv5网络模型;S2:在YOLOv5网络模型中添加CBMA模块,使得重要目标特征占有更大处理比重,并训练得到Attention

YOLOv5网络模型;S3:建立基于R

vine Copula改进的CBC分类器,CBC分类器接于YOLOv5的输出端;S4:获取待识别手势图像,并基于YOLOv5网络模型和改进的CBC分类器检测识别,输出结果。2.根据权利要求1所述的基于CBC分类器的Attention

YOLOv5网络手势识别方法,其特征在于,所述的步骤S1,包括:对手势图像数据集中的若干手势图片的进行数据集特征划分与标注;将得到的手势特征图片与标注好的标签,分别置于待训练网络的imgs和labels模块下;利用标注的手势图片训练得到YOLOv5网络模型。3.根据权利要求1所述的基于CBC分类器的Attention

YOLOv5网络手势识别方法,其特征在于,所述的步骤S1还包括:测试训练的YOLOv5网络模型,若合格则继续。4.根据权利要求1所述的基于CBC分类器的Attention

YOLOv5网络手势识别方法,其特征在于,所述的步骤S2,包括:对于YOLOv5网络模型,修改yolov5s.yaml,将Backbone的C3模块修改为添加注意力机制后的CBAMC3模块,参数不变;在common.py中添加CBAMC3模块;修改yolo.py,添加额外的判断语句;在训练时调用修改后的yolov5s.yaml,用于验证注意力机制在YOLOv5网络模型上的有效性。5.根据权利要求1所述的基于CBC分类器的Attention

...

【专利技术属性】
技术研发人员:袁帅吕佳琪许景科师金钢栾方军
申请(专利权)人:沈阳建筑大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1