当前位置: 首页 > 专利查询>四川大学专利>正文

一种基于DeeplabV3+模型的蓝湿皮表面伤残面积自动计算方法技术

技术编号:38100668 阅读:8 留言:0更新日期:2023-07-06 09:18
本发明专利技术提供了一种基于DeeplabV3+模型的蓝湿皮表面伤残面积自动计算方法,旨在解决制革工厂中伤残面积自动化计算难的问题。该方法包括蓝湿皮图像数据采集和预处理、基于DeeplabV3+模型的蓝湿皮伤残分割模型训练和验证、以及对分割后图像中伤残的面积自动计算。本发明专利技术能够精准地分割大面积蓝湿皮表面存在的刀洞、烙印等常见伤残,且速度快,检测一张蓝湿皮的速度在1s以内。与传统人工估算蓝湿皮伤残面积相比,本发明专利技术的方法在蓝湿皮表面伤残面积计算方面具有更高的分割精度和更快的计算速度,能满足制革工厂实时量化伤残面积的要求。求。求。

【技术实现步骤摘要】
一种基于DeeplabV3+模型的蓝湿皮表面伤残面积自动计算方法


[0001]本专利技术属于蓝湿皮表面伤残检测领域,尤其涉及一种基于DeeplabV3+模型的蓝湿皮表面伤残面积自动计算方法。

技术介绍

[0002]蓝湿皮是制革过程中的中间产品,由生皮经过去油、去脂、脱毛和铬鞣处理制成。这种产品具有较好的稳定性,不仅可以进行下一步加工处理制作成皮革,还可以直接交易给其他有需求的厂商。在进行下一阶段加工或交易之前,需要对蓝湿皮进行质量分级。通常,质检员除了观察蓝湿皮表面的伤残种类和分布情况来确定其等级,同时还需要估算不同类型伤残的面积,才能最终确定蓝湿皮的等级。但是,这种人工估算伤残面积的方法存在主观性和效率低下的问题,并且不同的质检员对同一张蓝湿皮表面的伤残面积估算可能存在较大差异。长时间劳作后,质检员还容易出现错误判断皮革质量等级的情况。
[0003]为了解决这些问题,利用基于深度学习开发的DeeplabV3+模型训练蓝湿皮伤残分割模型对蓝湿皮进行自动检测,将蓝湿皮表面的伤残部分与正常部分分割开来,并使用不同的颜色标识不同类型的伤残,从而可以高效、准确地计算出蓝湿皮表面伤残的面积大小。DeeplabV3+模型是一种基于深度学习的语义分割模型,用于对图像进行像素级别的分类。该模型采用了深度卷积神经网络结构,能够有效地学习到图像的高层次特征,进而实现对不同伤残目标进行准确的分割。通过使用这种自动检测方法,可以实现对蓝湿皮质量的自动化评估,避免了传统的主观估算方法带来的不确定性和错误,提高了蓝湿皮质量评估的准确性和效率。

技术实现思路

[0004]针对现有技术的问题,本专利技术提出了一种基于DeeplabV3+模型的蓝湿皮表面伤残面积自动计算方法。该方法的基本原理是,利用经过训练的DeeplabV3+模型对蓝湿皮图像中的伤残进行自动检测,并实现伤残的分割。在获取计算每种伤残在图像中占比的基础上,通过计算每种伤残的比值与蓝湿皮实际面积的乘积,即可实现自动化伤残面积的计算。
[0005]本专利技术提供了一种基于DeeplabV3+模型的蓝湿皮表面伤残面积自动计算方法,包括以下主要步骤:步骤1:使用工业相机采集包括但不限于牛皮、羊皮和猪皮等动物皮主鞣后的蓝湿皮图像样本500张以上,并将采集到的蓝湿皮图像进行裁剪和挑选等预处理,使用标注软件对预处理后的图像进行数据标注,以构建蓝湿皮伤残语义分割数据集;步骤2:利用创建的蓝湿皮表面伤残语义分割数据集,对DeeplabV3+模型进行训练,得到基于DeeplabV3+模型的蓝湿皮表面伤残分割模型;步骤3:使用训练完成的基于DeeplabV3+模型的蓝湿皮表面伤残分割模型对蓝湿皮图像进行伤残检测,获取不同伤残种类在图像中的分割结果图像,并计算每种伤残在图
像中的占比比率();步骤4:计算伤残实际面积,其数学表达式为:,,式中S为相机拍摄的实际面积,为相机与蓝湿皮之间的距离,为相机的水平视场角,为垂直视场角,为伤残实际面积,为不同类别伤残在图像中的占比系数。
[0006]作为本专利技术的再进一步方案,所述步骤1中,具体包括以下步骤:1

1:蓝湿皮图像获取,将整个图像采集系统架设在选皮机上,然后将LED白色光源安装在框架上,使得光线均匀分布在选机表面,根据相机的拍摄范围,适当调整相机之间的距离,确保相机能够捕捉细小伤残;1

2:对采集到蓝湿皮图像进行裁剪预处理,从蓝湿皮原始图像的左上角开始,使用两种不同大小的滑动窗口进行裁剪。裁剪完成后,以固定数量的像素点为步长,滑动到下一个区域进行裁剪。如果滑动后的裁剪区域超出蓝湿图像边界,超出边界的部分将以None值进行填充;1

3:对裁剪后到的图片进行筛选,筛选出有伤残的图像;1

4:使用labelme标注工具对图像数据中的伤残区域进行标注,要求标注框紧贴着伤残的最外边缘;1

5:标注完成后,对所有的蓝湿皮图像数据进行随机划分,将80%的蓝湿图像作为训练集,20%的蓝湿图像作为验证集。
[0007]作为本专利技术的再进一步方案,所述步骤2中,具体包括以下步骤:2

1:DeeplabV3+模型采用轻量级的MobilenetV2网络作为主干特征提取网络,并结合空洞卷积和空间金字塔池化等技术,以提高实时性和分割精度;2

2:采用多分类交叉熵损失函数计算预测语义分割图与人工标注的真实语义分割图之间的损失,并通过反向传播算法优化神经网络的参数。
[0008]2‑
3:使用训练阶段得到的最终权重参数文件对验证集进行评估,根据验证集的评估结果,自动调整超参数以优化模型性能。
[0009]作为本专利技术的再进一步方案,所述步骤3中,具体包括以下步骤:3

1:将未参与制作训练和验证数据集的原始蓝湿皮图像输入训练完成的蓝湿皮伤残分割模型,即可完成蓝湿皮伤残分割,在处理之后,图像中的伤残都被分割开来,并且不同的伤残被标注成不同的颜色;3

2:根据分割结果中不同类型伤残所包含的像素数量来计算不同类型伤残()在分割结果的图像中所占的比例系数。
[0010]作为本专利技术的再进一步方案,所述步骤4中,具体包括以下步骤:4

1:相机拍摄的实际面积计算,如附图2所示,通过相机与蓝湿皮之间的距离,以及相机的视场角来计算拍摄图像的实际面积,其数学表达式为:,式中S为实际面积,为相机与蓝湿皮之间的距离,为相机的水平视场角,为垂直视场角;
4

2:使用拍摄图片的实际面积和步骤3中的伤残占比系数来计算伤残真实面积,其数学表达式为:,式中为伤残实际面积,为不同类别伤残在图像中的占比系数。
[0011]作为本专利技术的再进一步方案,该检测方法采取DeeplabV3+语义分割模型,具体包括:1. DeeplabV3+模型DeepLabV3+模型是一种语义分割模型,它采用了编码器和解码器结构。编码器部分使用MobileNetV2网络作为主干网络,通过ASPP网络结构对MobilenetV2模型主干网络提取的特征图使用不同膨胀率的空洞卷积来获取多尺度信息。解码器部分采用了跳跃连接的方式,将低层次和高层次特征融合在一起。首先,使用 1x1 卷积对低层次特征图进行卷积,减少特征图的通道数;然后,对多尺度的高层次特征进行 4 倍双线性插值上采样,并将其与处理后的低层次特征进行融合;接着,通过 3x3 卷积对融合后的总特征信息进行简单特征合并;最后,对合并的特征图用 4 倍双线性插值上采样恢复至输入图像大小。
[0012]2. MobileNetV2网络MobileNetV2网络 是 DeepLabV3+模型 的主干网络,由 Google 提出,是一种轻量化网络。它在准确度略微降低的情况下大幅度减少了网络参数,适用于移动设备和嵌入式设备。MobileNetV2网络 继承了 MobileNetV1网络 的深度可分离卷积,并使用了反向残差连接的瓶颈层。首本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于DeeplabV3+模型的蓝湿皮表面伤残面积自动计算方法,其特征在于,至少包括:步骤1:使用工业相机采集包括但不限于牛皮、羊皮和猪皮等动物皮主鞣后的蓝湿皮图像样本500张以上,并将采集到的蓝湿皮图像进行裁剪和挑选等预处理,使用标注软件对预处理后的图像进行数据标注,以构建蓝湿皮伤残语义分割数据集;步骤2:利用创建的蓝湿皮表面伤残语义分割数据集,对DeeplabV3+模型进行训练,得到基于DeeplabV3+模型的蓝湿皮表面伤残分割模型;步骤3:使用训练完成的基于DeeplabV3+模型的蓝湿皮表面伤残分割模型对蓝湿皮图像进行伤残检测,获取不同伤残种类在图像中的分割结果图像,并计算每种伤残在图像中的占比比率();步骤4:按照下述数学公式,计算蓝湿皮表面伤残实际面积:,,式中S为相机拍摄的实际面积,为相机与蓝湿皮之间的距离,为相机的水平视场角,为垂直视场角,为伤残实际面积,为不同类别伤残在图像中的占比系数。2.根据权利要求1所述的基于DeeplabV3+模型的蓝湿皮表面伤残...

【专利技术属性】
技术研发人员:林炜黄昌平王春华杨乐张龙吴尖辉
申请(专利权)人:四川大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1