【技术实现步骤摘要】
一种基于YOLO V7及2D卷积网络的昆虫行为识别方法
[0001]本专利技术涉及一种基于
YOLO V7
及
2D
卷积网络的昆虫行为识别方法,属于昆虫行为识别
。
技术介绍
[0002]在昆虫行为分析领域,针对昆虫行为进行分析对研究昆虫的行为具有重要意义
。
以前研究人者仅靠人工获取行为时间参数,通过逐帧播放视频观察
、
统计的方式记录,这种方法效率低且乏味,并且存在研究人员用眼疲劳导致的错误统计问题
。
目前存有通过深度学习方式对昆虫行为进行识别的方法,如申请公布号为
CN113298023A
的专利技术专利申请公开的一种基于深度学习及图像技术的昆虫动态行为识别方法,其虽然能够完成昆虫动态行为的识别但是其存有以下几个方面的问题:第一:实现昆虫动态行为识别的准确率不够高,无法实现较精确的行为识别;第二:现有的识别方法耗时长,模型检测时间较长;第三:现有的方法鲁棒性差,只能针对一种昆虫进行识别,不易迁移至其他复杂 ...
【技术保护点】
【技术特征摘要】
1.
一种基于
YOLO V7
及
2D
卷积网络的昆虫行为识别方法,其特征在于:所述的昆虫行为识别方法包括如下步骤:
1、
获取数据;由专业人员在实验过程中以固定角度从上至下拍摄昆虫背面,昆虫在拍摄区域可以自由活动,以视频分辨率为
1920*1080
,视频帧率为
25FPS
的方式拍摄得到样本视频,将其中
50
个已进行人工观察统计的昆虫实验视频与统计结果为训练数据;训练数据的选择:将样本视频通过图像处理得到帧图像,对图像数据进行过滤,筛除帧图像数据中存在模糊,噪声明显
、
光线过于阴暗的样本得到质量较好的图像;
2、
构建昆虫目标检测模型;使用
YOLO V7
目标检测算法得到昆虫目标的预测框,并获取昆虫的位置坐标信息;由于昆虫目标小且移动速度快,传统的视频软件裁剪方法已不适用,其效率低且人工成本高,因此采用
YOLO V7
目标检测网络检测昆虫小目标;在样本视频进行图像处理得到帧图像中筛选部分图像作为训练数据集,其中
70
%作为训练集,剩余
30
%作为验证集;将训练数据集输入到
Yolo v7
网络中,输入网络的图像大小为
640
×
640
,进行训练
100
个
epoch
,得到训练完成的
YOLO V7
网络模型;
3、
昆虫小目标视频裁剪;根据步骤2中
YOLO V7
网络模型生成预测视频,同时获取昆虫预测框位置坐标文本文件;每一个文件对应视频数据中每一帧的预测框位置坐标信息,接着使用视频处理算法处理位置坐标文本文件,首先合并属于同一个视频数据的文本文件,使一个视频数据对应一个文本文件;接着依据每一个文本文件依次获得裁剪出橘小实蝇小目标的视频数据,可有效去除背景噪声的干扰;
4、
构建
TSM
网络模型识别昆虫梳理行为;对于梳理行为视频识别,采用
TSM
深度学习模型可以有效描述事域信息特征;
5、
将全新的昆虫行为视频输入到步骤4所选择的
TSM
网络模型中进行预测,
TSM
网络模型即可对昆虫行为进行识别
。2.
根据权利要求1所述的一种基于
YOLO V7
及
2D
卷积网络的昆虫行为识别方法,其特征在于:所述的
YOLO V7
目标检测网络是目前
YOLO
系列中最新的目标检测器,其基于深度神经网络进行目标的识别和定位,采用基于
anchor based
的方法,在网络架构上增加
E
‑
ELAN
层,
REP
层;
YOLO V7
将模型重参数化引入到网络架构中,标签分配策略采用
YOLO V5
跨网格搜索以及
YOLO X
的匹配策略,同时提出了辅助头的训练方法,目的是通过增加训练成本,提升精度的同时不影响推理时间;它与
YOLO V5
不同的是,将
neck
层与
head
层组合称为
head
层;
Backbone
部分用于提取特征,
head
部分用于输出预测结果;将数据集图像输入到
Yolo v7
网络中;首先将输入的图像调整为
640
×
640
×3大小,输入到
backbone
网络中,根据
backbone
网络中的三层输出
80
×
80
×
512、40
×
40
×
1024、20
×
20
×
1024
,...
【专利技术属性】
技术研发人员:詹炜,刘虎,郭宇衡,孙泳,
申请(专利权)人:荆州市鹰拓科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。