基于多注意力残差特征融合的医学图像超分辨率重建方法技术

技术编号:29793070 阅读:10 留言:0更新日期:2021-08-24 18:12
一种基于多注意力残差特征融合的医学图像超分辨率重建方法,联合了通道注意力机制和空间注意力机制两个模块,让网络对输入图片的特征进行加权重处理,从而解决输入特征被平等处理而导致网络表征能力不足的问题;提出了残差注意力特征融合模块(RAFF),将神经网络中局部的特征进行融合,再加上全局的特征融合,可以更充分地利用整个网络中的局部残差特征,从而解决深度神经网络过深而网络学习能力不足的问题。本发明专利技术有效地对医学图像进行超分辨率重建,可以提高较深的超分辨率网络的图像超分重建性能。

【技术实现步骤摘要】
基于多注意力残差特征融合的医学图像超分辨率重建方法
本专利技术涉及一种基于多注意力残差特征融合的医学图像超分辨率重建方法。
技术介绍
近年来,深度卷积神经网络在单幅图像上的超分辨率上取得了非常好的效果,图像超分辨率的一种常见方法是基于实例的方法,该方法利用高分辨率图像和低分辨率图像的信息,生成近似原始高分辨率图像的超分辨率版本。在医学图像上也存在许多使用超分辨率的方法,医学影像的超分辨率重建有助于提高基于计算机辅助的临床医学诊断和疾病定量分析的准确性和客观性,所以,对需要的医学图像进行超分辨率重建是有必要的。现有技术存在的缺陷为:现有的大部分超分网络都是基于卷积神经网络进行训练的,网络对输入图片的特征是平等处理的,网络虽然学习到了输入图像的特征,但是这些特征并没有差异,从而会降低超分网络的表征能力。并且现有的超分辨率方法主要专注于设计更深的网络结构,却很少挖掘层间特征的相关性,难以充分利用整个网络中的局部特征信息,从而会降低深度神经网络的学习能力。
技术实现思路
为了克服现有的不足,本专利技术针对上述的两个问题进行了改进,提出了一种基于多注意力残差特征融合的医学图像超分辨率重建方法,联合了通道注意力机制和空间注意力机制两个模块,让网络对输入图片的特征进行加权重处理,从而解决输入特征被平等处理而导致网络表征能力不足的问题;提出了残差注意力特征融合模块(RAFF),将神经网络中局部的特征进行融合,再加上全局的特征融合,可以更充分地利用整个网络中的局部残差特征,从而解决深度神经网络过深而网络学习能力不足的问题。本专利技术解决其技术问题所采用的技术方案是:一种基于多注意力残差特征融合的医学图像超分辨率重建方法,联合通道注意力和空间注意力模块,将输入图片的特征从多方面加以权重,再加上局部和全局的残差特征融合并构建了新颖的超分辨率重建方法,包括以下步骤:1)训练样本的处理:为了使所提超分辨率网络模型再训练过程中有对应的高分辨率图像(即HR)和低分辨率图像(即LR),本专利技术先对512x512分辨率的高清医学图像原图数据集做2倍和4倍的双三次下采样,得到256x256分辨率和128x128分辨率的低分辨率数据集。2)联合多注意力机制:本专利技术提出了一种多注意力的超分辨率重建网络。当提取到输入图像的特征H×W×C后,会分别进行Channelattention和Spatialattention的处理,最后将通道注意力权重和空间注意力权重相结合得到一个三维的AttentionmapM(U’)。本专利技术在注意力机制前还添加了一个上下文融合模块CombineContext,目的是让输入图像的特征拥有更多的图像上下文信息,具体操作为:输入一张特征图F:H×W×C,先经过一个池化层变为H/r×W/r×C,再经过上采样变为特征图U:H×W×C,此时H×W上每个像素点都含有周围像素点的信息,见公式(1):U′=upsample(Pool(F))+F(1)然后再将U’分别输入到两个注意力模块。在通道注意力模块中,先进行全局平均池化(GAP)聚合featuremap在每个通道的维度,得到了1×1×C大小的特征图,紧接着用一个全连接层将特征通道数降为C/r,再用一个全连接层将其变为1×1×C,得到了通道注意力的权重特征图Mc(U′),计算过程如公示(2):Mc(U′)=BN(FC2(FC1(AvgPool(U′))))(2)在空间注意力模块中,先用1x1的卷基层将特征通道压缩一半,再紧接一个3x3的卷基层和一个1x1的卷积层将特征变为H×W×1,得到了空间注意力的权重特征图Ms(U′),计算过程如公式(3):然后将两个注意力分支中获取到的权重特征图融合起来,由于这两张注意力特征图的形状不一样,于是先将两者扩展到H×W×C,然后再将它们逐项求和,求和后,取一个Sigmoid函数σ,将数值控制到0到1范围内,得到既有通道注意力权重也有空间注意力权重的三维注意力特征图M(U’),如公式(4):M(U′)=σ(Mc(U′)+Ms(U′))(4)再将该三维注意力图与最开始的输入特征F相乘,然后再将其添加到F上,得到带有双重注意力权重的特征图F’,图1的整个过程称为CCDA(CombineContextDualAttention),如公式(5):3)局部和全局残差特征融合:该网络框架主要有三个模块构成:Head、Body和Tail。3.1)、Headmodule:使用一个卷基层提取输入图像的初始特征图,可以描述为公式(6):F0=H(ILR)(6)其中ILR表示输入图像,F0表示提取到的浅层特征,H表示提取输入图浅层特征的卷积操作;3.2)、Bodymodule:本模块是整个网络的重点部分,包含了G个CCDA模块,但是直接堆加模块而加深网络深度的话,难以充分利用整个网络中的局部特征信息,从而会降低深度神经网络的学习能力。于是本专利技术在网络结构中加入了局部特征融合,将每一个CCDA模块的输出都直接和最后一个CCDA模块的输出进行汇聚,这样最后的特征图不仅拥有网络最终输入的结果还会有网络中间结果的信息。此外,在bodymodule的最后还加入了一个全局的特征融合,用于融合F0和FDF的特征,还具有加速训练收敛的作用,该过程描述为公式(7):FDF=HRAFF(F0)=F0+Bg(Fg-1(…))+Bg-1(Fg-2(…))+…+B0(F0)(7)其中FDF表示提取到的深层特征,HRAFF表示本专利技术提出的残差注意力特征融合模块(ResidualAttentionFeatureFusion),其中包含了G个CCDA模块,Bg表示第g个堆叠的CCDABlock。3.3)、Tailmodule:包含上采样模块和重建模块,以Head和Body的输出作为输入,输出重建图像,该部分描述为公式(8):其中ISR表示最终超分辨率重建的图像,HUP表示上采样模块,HREC表示重建模块,ILR是输入给神经网络的低分辨率图。最后用L1损失函数对该网络模型进行优化,给定一个训练集其中包含N张输入的低分辨率LR图,以及对应的N张HR图,网络的训练目标是最小化L1损失函数,描述为公式(9):其中,θ表示该网络的参数集,并采用随机梯度下降的方法对损失函数进行了优化。本专利技术的技术构思为:当一张低分辨率图像输入给网络模型,首先在Head模块进行浅层特征的提取,下一步进入Body模块进行深层特征的提取,该模块中包含了多个CCDA模块,每个CCDA模块中有结合上下文信息机制、通道注意力机制和空间注意力机制,可以让网络更加有效地提取到图像的深层特征。最后进入Tail模块,进行图像的上采样和最终的超分辨率图像重建。本专利技术方法的内容主要包括:1)联合了通道注意力机制和空间注意力机制两个模块,让网络对输入图片的特征进行加权重处理,从而解决输入特征被平等处理而导致网络表征能力不足的问题。2)提出了残本文档来自技高网...

【技术保护点】
1.一种基于多注意力残差特征融合的医学图像超分辨率重建方法,其特点在于,所述方法包括以下步骤:/n1)训练样本的处理:/n为了使所提超分辨率网络模型再训练过程中有对应的高分辨率图像HR和低分辨率图像LR,先对512x512分辨率的高清医学图像原图数据集做2倍和4倍的双三次下采样,得到256x256分辨率和128x128分辨率的低分辨率数据集。/n2)联合多注意力机制:/n当提取到输入图像的特征H×W×C后,会分别进行Channel attention和Spatialattention的处理,最后将通道注意力权重和空间注意力权重相结合得到一个三维的Attention map M(U’);在注意力机制前还添加了一个上下文融合模块Combine Context,目的是让输入图像的特征拥有更多的图像上下文信息,操作为:输入一张特征图F:H×W×C,先经过一个池化层变为H/r×W/r×C,再经过上采样变为特征图U:H×W×C,此时H×W上每个像素点都含有周围像素点的信息,见公式(1):/nU′=upsample(Pool(F))+F (1)/n然后再将U’分别输入到两个注意力模块。在通道注意力模块中,先进行全局平均池化GAP聚合feature map在每个通道的维度,得到了1×1×C大小的特征图,紧接着用一个全连接层将特征通道数降为C/r,再用一个全连接层将其变为1×1×C,得到了通道注意力的权重特征图M...

【技术特征摘要】
1.一种基于多注意力残差特征融合的医学图像超分辨率重建方法,其特点在于,所述方法包括以下步骤:
1)训练样本的处理:
为了使所提超分辨率网络模型再训练过程中有对应的高分辨率图像HR和低分辨率图像LR,先对512x512分辨率的高清医学图像原图数据集做2倍和4倍的双三次下采样,得到256x256分辨率和128x128分辨率的低分辨率数据集。
2)联合多注意力机制:
当提取到输入图像的特征H×W×C后,会分别进行Channelattention和Spatialattention的处理,最后将通道注意力权重和空间注意力权重相结合得到一个三维的AttentionmapM(U’);在注意力机制前还添加了一个上下文融合模块CombineContext,目的是让输入图像的特征拥有更多的图像上下文信息,操作为:输入一张特征图F:H×W×C,先经过一个池化层变为H/r×W/r×C,再经过上采样变为特征图U:H×W×C,此时H×W上每个像素点都含有周围像素点的信息,见公式(1):
U′=upsample(Pool(F))+F(1)
然后再将U’分别输入到两个注意力模块。在通道注意力模块中,先进行全局平均池化GAP聚合featuremap在每个通道的维度,得到了1×1×C大小的特征图,紧接着用一个全连接层将特征通道数降为C/r,再用一个全连接层将其变为1×1×C,得到了通道注意力的权重特征图Mc(U′),计算过程如公示(2):
Mc(U′)=BN(FC2(FC1(AvgPool(U′))))(2)
在空间注意力模块中,先用1x1的卷基层将特征通道压缩一半,再紧接一个3x3的卷基层和一个1x1的卷基层将特征变为H×W×1,得到了空间注意力的权重特征图Ms(U′),计算过程如公式(3):



然后将两个注意力分支中获取到的权重特征图融合起来,由于这两张注意力特征图的形状不一样,于是先将两者扩展到H×W×C,然后再将它们逐项求和,求和后,取一个Sigmoid函数σ,将数值控制到0到1范围内,得到既有通道注意力权重也有空间注意力权重的三维注意力特征图M(U’),如公式(...

【专利技术属性】
技术研发人员:徐涵杰管秋陆正威韦子晗陈奕州
申请(专利权)人:浙江工业大学
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1