一种基于深度学习的纤维截面直径检测方法技术

技术编号:24857458 阅读:42 留言:0更新日期:2020-07-10 19:10
本发明专利技术提供了一种基于深度学习的纤维截面直径检测方法,包括:利用预训练参数创建卷积神经网络模型;其中,卷积神经网络模型为Mask R‑CNN模型,其卷积核为长度不等的矩形卷积核;获取纤维图片的训练集及验证集,通过纤维图片的训练集及验证集对卷积神经网络模型进行训练,得到训练后的卷积神经网络模型;确定待检测纤维图片,根据训练后的卷积神经网络模型对待检测纤维图片进行识别,得到纤维图片中各个纤维截面的形状掩码;其中,训练、验证集及待识别纤维图片均为1024×1024大小的纤维图片;基于纤维截面的形状掩码,计算各个截面掩码轮廓的参数;所述参数包括截面掩码轮廓的面积、周长、直径。本发明专利技术能够自动确定纤维特征,准确计算纤维截面的直径。

【技术实现步骤摘要】
一种基于深度学习的纤维截面直径检测方法
本专利技术属于纤维检测
,具体涉及一种基于深度学习的纤维截面直径检测方法。
技术介绍
目前,现有技术对纤维截面直径的测量方法,是将待测纤维束切成毫米级的小段,再利用分散装置将纤维段分散散落在玻片上,放在显微镜头下通过摄像头成像。利用经典数字图像方法,对图像中的大量纤维段分别测量其直径,这个过程在纺织领域内习惯叫做纵面法测量。这里有一个比较关键的问题是,大量纤维段散落在玻片上,其中存在着非常多的交叉、弯曲和部分重叠的情况,经典图像算法并不能很好的应对,会存在非常多的重复测量(因为交叉纤维被分成多段,而这多段并不一定被归结为同一根纤维)和合并测量(并在一起的两根算成了一根),这些其实都是伪数据。这样的系统测试出的数据有一定的随机性,尤其对纤维直径离散较大的样本误差会较大。另一方面,分散纤维采集测量通常一个视场内可测的纤维数量平均10根左右,要达到数千根的大容量测试,要对应数百个视场的移动采集,效率较低。另外,对于截面形状不接近圆形的纤维,其测得直径也有一定偏差。因此,如何准确高效地检测大量纤维的直径,是本领域技术人员需要解决的问题。
技术实现思路
本专利技术的目的在于针对现有技术的不足,提供一种基于深度学习的纤维截面直径检测方法,利用Mask-RCN模型自动确定纤维特征,准确计算纤维截面的直径(面积)。本专利技术的实施例提供了一种基于深度学习的纤维截面直径检测方法,包括如下步骤:步骤1,利用预训练参数创建卷积神经网络模型;其中,所述卷积神经网络模型为MaskR-CNN模型,其卷积核为长度不等的矩形卷积核;步骤2,获取纤维图片的训练集及验证集,通过所述纤维图片的训练集及验证集对所述卷积神经网络模型进行训练,得到训练后的卷积神经网络模型;步骤3,确定待检测纤维图片,根据所述训练后的卷积神经网络模型对所述待检测纤维图片进行识别,得到纤维图片中各个纤维截面的形状掩码;其中,所述训练、验证集及待识别纤维图片均为1024×1024大小的纤维图片;步骤4,基于纤维截面的形状掩码,计算各个截面掩码轮廓的参数;所述参数包括截面掩码轮廓的面积、周长、直径。与现有技术相比本专利技术的有益效果是:1、无论纤维截面形状如何,都可以准确获取其截面面积,从而计算出准确的当量直径。2、截面方式下的视场内纤维不存在交叉问题,因而也不存在重复测量的问题。3、视场内纤维数量密度高,通常一个视场内有数百根纤维可供测量,效率较纵面法有大幅提升。4、基于AI神经网络算法,很好地解决了传统数字图像算法难以解决的相邻截面难以准确分割的问题,为截面计算奠定了基础。附图说明图1是本专利技术基于深度学习的纤维截面直径检测方法的流程图;图2是本专利技术MaskR-CNN结构简化图。具体实施方式下面结合附图所示的各实施方式对本专利技术进行详细说明,但应当说明的是,这些实施方式并非对本专利技术的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本专利技术的保护范围之内。参图1所示,本实施例提供了一种基于深度学习的纤维截面直径检测方法,包括:步骤S1,利用ImageNet上的预训练参数创建卷积神经网络模型;其中,所述卷积神经网络模型为MaskR-CNN模型,其卷积核为长度不等的矩形卷积核;步骤S2,获取纤维图片的训练集及验证集,通过所述纤维图片的训练集及验证集对所述卷积神经网络模型进行训练,得到训练后的卷积神经网络模型;步骤S3,确定待检测纤维图片,根据所述训练后的卷积神经网络模型对所述待检测纤维图片进行识别,得到纤维图片中各个纤维截面的形状掩码;其中,所述训练、验证集及待识别纤维图片均为1024×1024大小的纤维图片;步骤S4,基于纤维截面的形状掩码,计算各个截面掩码轮廓的参数;所述参数包括截面掩码轮廓的面积、周长、直径。MaskR-CNN模型由5个部分组成,分别是特征提取网络、特征组合网络、区域提交网络(RPN)、区域特征聚集网络(ROIAlign)和功能性网络,如图2所示。特征提取网络是深度神经网络的骨干网络,是整个模型计算量最大的部分。根据不同的应用需求,可以选择不同的特征提取网络。以ResNet50为例,取其4个ResidualBlock输出的4个特征图,记为C2,C3,C4,C5,分别代表图像不同深度的特征。特征组合网络的作用是将不同深度的特征进行重新组合,新生成的特征图中同时包含不同深度的特征信息。MaskR-CNN中使用FPN来组合特征图C2,C3,C4,C5成为新的特征图P2,P3,P4,P5,P6.对于i=5,4,3,2,U6=0,特征组合处理过程如式(1)所示:P’i其中:conv代表卷积操作,sum代表逐元素的对位求和操作,upsample代表使得特征长宽变为2倍的上采样操作,pooling代表步长(stride)为2的最大池化操作。区域提交网络的作用是利用特征图计算出能表示物体在图像中位置的候选框,采用锚点(Anchor)技术来完成区域提交功能。MaskR-CNN中RPN基于P2,P3,P4,P5,P6这5个特征图,对每一个特征图中的每一个特征向量回归得出一个5n维的向量,用以描述n个Anchor的修正值,每个Anchor的修正值包括△x、△y、△h、△w、p。其中p为前后景置信度。Anchor是一个预先设定好的Box。对于P2,P3,P4,P5,P6中的每个点,都会以其坐标为中心,以不同的宽、高来预设多个Anchor。然后,根据RPN网络回归得出的修正值对每个Anchor的中心和宽、高进行修正,从而得到新的Box。式(2)给出了Anchor修正计算过程。其中:x、y代表Anchor的中心的坐标,w、h分别代表Anchor的宽和高。当Anchor修正完成后,会产生大量的Box,这时再根据每个Box的p值,利用非极大抑制(NMS)即可过渡出较为精确的候选框。获取候选框之后,传统方法会根据每个候选框的位置从原图中裁剪出对应的区域,再对该区域进行分类和分割。然而,考虑到这些功能性网络所需要的输入都来源于特征图P2,P3,P4,P5,P6,因此采用ROIAlign算法直接从特征图中裁剪出候选框对应位置的特征,并加以双线性插值和池化,将特征变换为统一的尺,ROIAlign算法可以看作是一个引入了双线性插值的池化过程,它将原先离散的池化变为连续。得到每个候选框对应区域同一尺寸的特征后,将其作为一些被称为头部的功能性网络的输入参与后续计算。对于分类头部,采用全连接层和Softmax层的固定搭配.对于候选框的二阶段修正,MaskRCNN对每个类别都回归得出一个5维向量的修正值,修正过程与式(2)一致。本实施例中Mask-RCNN网络有两个主要部分。第一是区域提案网络,该网络每个图像生成大约2000个区域提案。在训练期间,这些提案(ROI)中的每一个都经过第本文档来自技高网...

【技术保护点】
1.一种基于深度学习的纤维截面直径检测方法,其特征在于,包括如下步骤:/n步骤1,利用预训练参数创建卷积神经网络模型;其中,所述卷积神经网络模型为MaskR-CNN模型,其卷积核为长度不等的矩形卷积核;/n步骤2,获取纤维图片的训练集及验证集,通过所述纤维图片的训练集及验证集对所述卷积神经网络模型进行训练,得到训练后的卷积神经网络模型;/n步骤3,确定待检测纤维图片,根据所述训练后的卷积神经网络模型对所述待检测纤维图片进行识别,得到纤维图片中各个纤维截面的形状掩码;其中,所述训练、验证集及待识别纤维图片均为1024×1024大小的纤维图片;/n步骤4,基于纤维截面的形状掩码,计算各个截面掩码轮廓的参数;所述参数包括截面掩码轮廓的面积、周长、直径。/n

【技术特征摘要】
1.一种基于深度学习的纤维截面直径检测方法,其特征在于,包括如下步骤:
步骤1,利用预训练参数创建卷积神经网络模型;其中,所述卷积神经网络模型为MaskR-CNN模型,其卷积核为长度不等的矩形卷积核;
步骤2,获取纤维图片的训练集及验证集,通过所述纤维图片的训练集及验证集对所述卷积神经网络模型进行训练,得到训练后的卷积神...

【专利技术属性】
技术研发人员:徐运海董兰兰
申请(专利权)人:北京和众视野科技有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1