【技术实现步骤摘要】
Transformer的多尺度多窗口的注意力机制作为骨干网络,提取不同尺度的特征矢量,输入的待分割图像可包含Nc个通道;
[0011]步骤2、将特征提取网络获取的不同尺度的特征矢量复原为不同尺度的特征图;
[0012]步骤3、将不同尺度的特征图输入到分割网络中,获得源域与目标域两个域的所需分割对象的分割结果,所述分割网络S是加入空间注意力机制的UNet解码网络;
[0013]步骤4、将不同尺度的特征图输入到域判别网络中,判断特征图是来自于源域还是目标域,并给出相应的标签,所述域判别网络D包括结合UNet跳跃链接方式的改进UNet编码网络,以及两级全连接层与输出层;
[0014]步骤5、将源域训练样本经过所述特征提取网络F、所述分割网络S得到的源域所需分割对象结果计算源域分割损失部分,将目标域训练样本经过所述特征提取网络F、所述分割网络S得到的目标域所需分割对象结果计算目标域分割损失部分,将源域和目标域训练样本经过所述特征网络F、所述域判别网络D获得域标签结果计算域判别损失部分,将源域分割损失部分、目标域分割损失部分、域判别损失部分加权叠加为整体损失;
[0015]步骤6、通过最小化整体损失,迭代优化所述特征提取网络F、所述分割网络S、所述域判别网络D中的参数,直到整体损失达到要求为止,完成迁移学习过程。
[0016]根据本专利技术的另一方面,还提出一种基于迁移学习的图像分割方法,包括如下步骤:
[0017]步骤1、利用前述的迁移学习方法训练好的特征提取网络F与所述分割网络S组合成可分割出目标域所需分割对 ...
【技术保护点】
【技术特征摘要】
1.一种面向分割任务的融合Swin Transformer与UNet的迁移学习方法,其特征在于,包括如下步骤:步骤1、将待分割图像数据输入到特征提取网络F,所述特征提取网络F是采用Swin Transformer的多尺度多窗口的注意力机制作为骨干网络,提取不同尺度的特征矢量,输入的待分割图像包含Nc个通道;步骤2、将所述特征提取网络F获取的不同尺度的特征矢量复原为不同尺度的特征图;步骤3、将不同尺度的特征图输入到分割网络S中,获得源域与目标域两个域的所需分割对象的分割结果,所述分割网络S是加入空间注意力机制的UNet解码网络;步骤4、将不同尺度的特征图输入到域判别网络D中,判断特征图来自于源域还是目标域,并给出相应的标签,所述域判别网络D包括结合UNet跳跃链接方式的改进UNet编码网络,以及两级全连接层与输出层;步骤5、将源域训练样本经过所述特征提取网络F、所述分割网络S得到的源域所需分割对象结果计算源域分割损失部分,将目标域训练样本经过所述特征提取网络F、所述分割网络S得到的目标域所需分割对象结果计算目标域分割损失部分,将源域和目标域训练样本经过所述特征提取网络F、所述域判别网络D获得域标签结果计算域判别损失部分,将源域分割损失部分、目标域分割损失部分、域判别损失部分加权叠加为整体损失;步骤6、通过最小化整体损失,迭代优化所述特征提取网络F、所述分割网络S、所述域判别网络D中的参数,直到整体损失达到要求为止,完成迁移学习过程。2.根据权利要求1所述的一种面向分割任务的融合Swin Transformer与UNet的迁移学习方法,其特征在于,所述特征提取网络F是采用Swin Transformer的多尺度多窗口的注意力机制作为骨干网络,所述特征提取网络F采用子块融合方式是将需要融合子块的特征矢量的最大池化结果与平均池化结果链接而成。3.根据权利要求1所述的一种面向分割任务的融合Swin Transformer与UNet的迁移学习方法,其特征在于,所述步骤1进一步包括:步骤1.1、所述特征提取网络F首先利用划分子块模块,将输入的每一张尺寸为H
×
W的输入图像划分成Np
×
Np大小的子块,Np为子块的宽度,每个子块数据各自展开成一维矢量,一维矢量尺寸为16N=Np
×
Np
×
Nc;Nc表示输入图像的通道数,共计生成个矢量,Ns为不同尺度的数目,H、W为图像的像素高度和像素宽度;步骤1.2、经过线性嵌入模块利用共享的线性变换矩阵W
c
×
16N
与子块划分的矢量相乘,将所有矢量变换成长度为C的一组新的矢量,所述特征提取网络F利用Swin Transformer模块在Ns个不同尺度上进行特征提取,每一个尺度上采用2个连续的Swin Transformer模块计算,Swin Transformer输入是一组矢量,输出也是一组矢量;首先在层内做矢量归一化处理,在每一个矢量利用该矢量所在位置所处标准窗口内进行多头自注意力模块处理,处理结果与输入结果相加;接着进入第二个Swin Transformer模块,第二个Swin Transformer模块是循环移动窗口内的多头自注意力模块,其他部分与第一个Swin Transformer模块相同。4.根据权利要求3所述的一种面向分割任务的融合Swin Transformer与UNet的迁移学习方法,其特征在于,所述步骤1.2进一步包括:
一个尺度的Swin Transformer生成的一组矢量经过子块融合将临近的2
×
2空间范围内的4个矢量合并成一个新的矢量,合并过程计算这四个矢量的最大池化和平均池化结果,并将这两个池化结果连接在一起生成长度为原来输入矢量2倍的新矢量,同时输出矢量的个数减少为输入矢量个数的四分之一。5.根据权利要求1所述的一种面向分割任务的融合Swin Transformer与UNet的迁移学习方法,其特征在于,所述分割网络S采用了结合空间注意力机制的UNet解码网络,其中空间注意力机制是利用输入特征图X的各个通道之间的最大池化、最小池化以及1*1卷积结果叠加后,再经过1*1卷积、批归一化、Sigmoid激活后获得空间权重,将此权重作用于输入的特征图的各通道,使得获取的特征结果更加突出与需要分割对象相关的空间位置上的信息,抑制与需要分割对象不相关的空间位置上的信息。6.根据权利要求1所述的一种面向分割任务的融合Swin Transformer与UNet的迁移学习方法,其特征在于,所述域判别网络D将不同尺度的特征图作为输入,其结构包括基于UNet跳跃链接的改进UNet编码网络,两级全连接层和输出层。7.根据权利要求1所述的一种面向分割任务的融合Swin Transformer与UNet的迁移学习方法,其特征在于,所述步骤1中,输入的图像数据划分为四种类型,分别是:源域有标注数据其中下标L表示有标记,下标S表示源域,上标i表示第i个样本,取从1到N
SL
之间的整数,表示源域有标记的第i个待分割图像,表示源域有标记第i个待分割图像对应的需要分割对象的分割标记,能够用来表示一个分割对象的分割标记,或表示多个分割对象的分割标记;源域未标注数据其中下标U表示无标记,表示第i个源域无标记的待分割图像;目标域有标注数据下标T表示目标域,表示目标域有标记的第i个待分割图像,表示目标域有标记第i个待分割图像对应的需要分割对象的分割标记,能够用原来表示一个分割对象的分割标记,或表示多个分割对象的分割标记;目标域未标注数据其中表示第i个目标域无标记的待分割图像;每一批次输入的图像数据中均需要包含等数量的源域已标注数据和目标域已标注数据,如果目标域数据量小于源域,需要通过扩增处理将目标域数据样本扩增到与源域目标数据样本数量相同;每一批次中输入的源域、目标域的未标注数据的数目不做要求。8.根据权利要求7所述的一种面向分割任...
【专利技术属性】
技术研发人员:王少彬,白璐,陈颀,陈宇,
申请(专利权)人:苏州医智影科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。