当前位置: 首页 > 专利查询>浙江大学专利>正文

一种基于改进型Deeplabv3+网络模型的道路场景分割方法技术

技术编号:38653152 阅读:9 留言:0更新日期:2023-09-02 22:40
本发明专利技术公开了一种基于改进型Deeplabv3+网络模型的道路场景分割方法,包括获取道路场景图像数据并进行预处理,生成标签图像;将预处理图像和标签图像组合,得到数据集并分为训练集、验证集和测试集;构建改进型Deeplabv3+网络模型;训练集和验证集用来训练改进型Deeplabv3+网络模型;将测试集的预处理图像输入训练好的模型,得到道路场景图像的分割结果。本发明专利技术采用四元数卷积取代二维卷积,提高网络的拟合能力,降低参数量;采用大卷积替换空洞卷积对空间金字塔池化模块进行重构,增加有效感受野并提高对待征信息的复用效率;在解码端引入编码端中降采样层输出的特征图和注意力机制模块,实现多尺度特征融合和细节感知;将模型的训练和推理解耦,减少计算量和内存消耗。存消耗。存消耗。

【技术实现步骤摘要】
一种基于改进型Deeplabv3+网络模型的道路场景分割方法


[0001]本专利技术涉及语义分割
,尤其涉及一种基于改进型Deeplabv3+网络的道路场景分割方法。

技术介绍

[0002]城市道路图像语义分割是一种将图像中每个像素点根据其所属的类别划分为不同的颜色区域的技术,旨在更细致地理解图像语义,以便更好地进行道路交通管理、自动驾驶和智能交通等应用。传统的聚类分割算法难以对类别进行细分,从而无法获取有用的语义信息。现在常用的技术是使用深度学习模型,例如卷积神经网络可以通过学习大量的数据进行图像识别和分割,进而实现更精细的语义分割。例如,可以通过分割出道路区域,实现道路交通拥堵检测和智能路灯控制等功能,通过分割出车辆和行人等物体,实现交通违规检测和行人安全监测等功能。
[0003]DeepLabv3+是一种基于深度学习的语义分割模型,它采用了空洞卷积和多尺度融合等先进技术来处理不同尺度的图像,并且能够适应不同的数据集和任务。相较于其他模型,DeepLabv3+具有更高的准确率和精度,能够准确地识别出图像中的不同物体和区域。但在分割物体边界时,可能会出现不连续和分割错误的现象。为了解决这个问题,本专利技术以底层特征复用和捕获多尺度语义信息为出发点,对DeepLabv3+算法进行了改进。通过构建四元数卷积神经网络提取网络浅层细节信息,之后进行级联式特征融合,完成底层信息的复用,最终利用空间金字塔结构进一步获取多尺度特征信息,以达到更加准确的物体边界分割效果。

技术实现思路

[0004]本专利技术的目的在于针对现有技术中的不足,提供一种基于改进型Deeplabv3+网络的道路场景分割方法,可以有效的进行底层特征复用和捕获多尺度语义信息以达到更加准确的物体边界分割效果。
[0005]为达到上述目的,本专利技术是采用下述技术方案实现的:一种基于改进型Deeplabv3+网络模型的道路场景分割方法,其特征在于,包括以下步骤:
[0006](1)获取道路场景图像数据;
[0007](2)对所述道路场景图像数据进行预处理,根据预处理图像生成标签图像;将预处理图像和对应的标签图像按照一一对应的方式进行组合,得到数据集;将数据集分为训练集、验证集和测试集;
[0008](3)引入四元数卷积来改进ConvNeXt网络;以Deeplabv3+网络为原型,将改进的ConvNeXt网络替换主干网络中的Xception网络,在解码端引入编码端中降采样层输出的特征图和注意力机制模块,构建改进型Deeplabv3+网络模型;
[0009](4)所述训练集和验证集用来训练改进型Deeplabv3+网络模型;
[0010](5)将所述测试集的预处理图像输入训练好的改进型Deeplabv3+网络模型,得到
道路场景图像的分割结果。
[0011]进一步地,所述步骤(2)中,预处理包括尺寸调整、翻转、标准归一化和裁剪操作。
[0012]进一步地,所述步骤(2)中,生成标签图像的方法包括手工绘制、蒙版绘制、半自动标注和AI辅助标注。
[0013]进一步地,所述步骤(3)中,所述引入四元数卷积来改进ConvNeXt网络具体为:将ConvNeXt卷积层的卷积核表示为四元数形式,并使用四元数乘法来实现卷积操作,得到改进的ConvNeXt网络。
[0014]进一步地,所述步骤(3)中,还包括:采用大卷积替换空洞卷积对所述Deeplabv3+网络中的ASPP模块进行重构,得到RepASPP模块,所述RepASPP模块用于将改进型Deeplabv3+网络模型的训练和推理解耦。
[0015]进一步地,所述步骤(4)具体为:将所述训练集输入改进型Deeplabv3+网络模型,进行计算并得到预测结果;计算预测结果与标签图像之间的误差,并利用梯度优化算法减小误差,更新模型权重参数;通过迭代优化的过程,使得模型逐渐收敛。
[0016]进一步地,所述步骤(4)包括以下子步骤:
[0017](4.1)使用在ImageNet数据集上预训练的权重对改进型Deeplabv3+网络模型进行初始化;
[0018](4.2)将训练集中的预处理图像输入改进型Deeplabv3+网络模型,得到道路场景图像分割的预测结果;
[0019](4.3)使用交叉熵损失函数计算预测结果与对应标签图像之间的误差;
[0020](4.4)根据计算的误差,使用梯度下降算法来更新改进型Deeplabv3+网络的权重参数;
[0021](4.5)重复步骤(4.2)

步骤(4.4),每次迭代结束,使用验证集中的预处理图像对改进型Deeplabv3+网络模型进行评估,选择最优模型;直至迭代结束,保存训练好的模型。
[0022]本专利技术的有益效果是:
[0023]1、本专利技术采用四元数卷积取代二维卷积,提高网络的拟合能力,降低参数量;
[0024]2、本专利技术采用大卷积替换空洞卷积对空间金字塔池化模块进行重构,增加有效感受野并提高对待征信息的复用效率;
[0025]3、本专利技术在解码端引入编码端中降采样层输出的特征信息和注意力机制模块,以实现更好的多尺度特征融合和细节感知;
[0026]4、本专利技术使用结构重参数化技术,将模型的训练和推理解耦,减少计算量和内存消耗。
附图说明
[0027]图1是本专利技术实施例提供的改进型Deeplabv3+网络模型的道路场景分割方法的基本流程示意图;
[0028]图2是本专利技术实施例提供的改进型DeepLabV3+网络模型结构示意图;
[0029]图3是本专利技术实施例提供的改进空间金字塔池化模块示意图;
[0030]图4是本专利技术实施例提供的解耦训练与推理的架构图。
具体实施方式
[0031]下面结合附图对本专利技术作进一步描述。以下实施例仅用于更加清楚地说明本专利技术的技术方案,而不能以此来限制本专利技术的保护范围。
[0032]实施例一
[0033]如图1所示,是本专利技术实施例提供的一种改进型Deeplabv3+网络的道路场景分割方法的基本流程示意图,本专利技术的一种改进型Deeplabv3+网络的道路场景分割方法,包括以下步骤:
[0034]步骤1:获取道路场景图像数据;
[0035]在本实施例中,使用摄像头设备在实际道路场景中采集图像数据。将摄像头设备安装在采集平台上,例如车辆或移动机器人,确保传感器设备的正确安装并校准,以获取准确的图像数据。然后对传感器进行参数调整,包括曝光时间、焦距、视场角等,以确保采集到的图像质量符合要求。再根据所需的道路场景数据范围和覆盖面积,确定数据采集的位置和路径规划,可根据需要选择城市街道、乡村道路或高速公路等不同道路类型。摄像头设备将持续采集图像数据,将采集到的图像数据存储在适当的媒介中,例如硬盘、内存卡或云存储。并记录采集的相关信息,例如时间戳、位置信息和传感器参数等,以便后续处理和分析。最后,对采集的图像数据进行质本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于改进型Deeplabv3+网络模型的道路场景分割方法,其特征在于,包括以下步骤:(1)获取道路场景图像数据;(2)对所述道路场景图像数据进行预处理,根据预处理图像生成标签图像;将预处理图像和对应的标签图像按照一一对应的方式进行组合,得到数据集;将数据集分为训练集、验证集和测试集;(3)引入四元数卷积来改进ConvNeXt网络;以Deeplabv3+网络为原型,将改进的ConvNeXt网络替换主干网络中的Xception网络,在解码端引入编码端中降采样层输出的特征图和注意力机制模块,构建改进型Deeplabv3+网络模型;(4)所述训练集和验证集用来训练改进型Deeplabv3+网络模型;(5)将所述测试集的预处理图像输入训练好的改进型Deeplabv3+网络模型,得到道路场景图像的分割结果。2.根据权利要求1所述的一种基于改进型Deeplabv3+网络模型的道路场景分割方法,其特征在于,所述步骤(2)中,预处理包括尺寸调整、翻转、标准归一化和裁剪操作。3.根据权利要求1所述的一种基于改进型Deeplabv3+网络模型的道路场景分割方法,其特征在于,所述步骤(2)中,生成标签图像的方法包括手工绘制、蒙版绘制、半自动标注和AI辅助标注。4.根据权利要求1所述的一种基于改进型Deeplabv3+网络模型的道路场景分割方法,其特征在于,所述步骤(3)中,所述引入四元数卷积来改进ConvNeXt网络具体为:将ConvNeXt卷积层的卷积核表示为四元数形式,并使用四元数乘法来实现卷积操作,得到改进的ConvNeX...

【专利技术属性】
技术研发人员:梁秀波毕水秀王宏志
申请(专利权)人:浙江大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1