【技术实现步骤摘要】
基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法
[0001]本专利技术属于纺织品成分分析、材料分类
,具体涉及一种基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法。
技术介绍
[0002]在当前的纺织企业中,织物的检验仍以传统的人工视觉检验方式为主,检测速度一般在15
‑
20m/min[1],无法满足在线检测的要求. 纺织厂中的织物若出现瑕疵,将严重影响其经济收益.因此,以机器视觉和深度学习为依托的检测方法成为近几年研究的热点.一般基于传统的机器视觉处理方法大致可分为统计法(数学形态学法、直方图统计法、遗传算法、贝叶斯统计法),模型法(总变差模型),光谱法(快速傅里叶变换、小波变换、Gabor变换),且由于一种算法很难取得理想的瑕疵轮廓,于是很多学者将多种算法融合应用.但这些传统算法过于依赖图像本身的浅层特征,图像的低对比度、光照不均等因素都会干扰检测结果,使得检测精度较低.近些年深度学习在目标检测方面发展迅猛,采用经过验证的两级管道,例如Fast R
‑
CNN、 Faster
【技术保护点】
【技术特征摘要】
1.基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,包括以下步骤:S1:输入棉布图像,对其进行归一化与标准化预处理;S2:随机裁剪图像并在网格上加入锚框;S3:用K
‑
Means++算法聚类锚框;S4:用Darknet
‑
53提取图像特征;S5:定位置信度评分与分类置信度评分;S6:将评分结果与阈值比较;S7:引入softer
‑
NMS算法精确化边框。2.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S1图像预处理,其主要包括图像矩阵的归一化、标准化等操作。3.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S2随机裁剪图像并在网格上加入锚框,对其输入的图像数据进行随机裁剪、旋转等预处理工作,目的是增强模型额鲁棒性,假设输出特征图的高与宽分别为H、W,相当于将图像划分为H
×
W个网络,图像的每个网格对应输出特征图平面上的一个表征点,在每个网格上都放上这些锚框,每个网格上每个锚框都对应一个预测框。4.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S3用K
‑
Means++算法聚类锚框,利用锚点机制预测下次边界框以降低模型训练的复杂度,随着对样本特征的不断学习,根据真实框对初始候选框逐步修正,得到逐渐接近真实框的参数,为减少随机初始化对结果的影响,得到更好的IOU得分,用K
‑
Means++算法取代K
‑
Means算法,将候选框和真实框的交并比(IOU)作为位置相似性度量。5.根据权利要求1所述的基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法,其特征在于,S4用Darknet
‑
5...
【专利技术属性】
技术研发人员:池明旻,
申请(专利权)人:中山复旦联合创新中心,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。