基于Cycle-GAN的DU-GAN双能CT超分辨方法技术

技术编号:36116485 阅读:8 留言:0更新日期:2022-12-28 14:20
本发明专利技术提供一种基于Cycle

【技术实现步骤摘要】
基于Cycle

GAN的DU

GAN双能CT超分辨方法


[0001]本专利技术涉及CT图像校正
,尤其涉及一种基于Cycle

GAN的DU

GAN双能CT超分辨方法。

技术介绍

[0002]计算机断层成像(Computed Tomography,CT)技术通过采集X射线穿透物体后的投影信息进而获取物质与结构信息,能够无损、非接触地对成像对象的内部结构信息进行获取,在医学诊断、工业检测等领域发挥了重要作用。但是,传统CT仅用单一能量下的X射线源对物体进行扫描,只能呈现被检物体的基本检测定位信息。因此,在CT成像上很难区分被扫描物体上衰减系数相似的两种不同材料。随着CT技术的不断发展,双能CT技术在CT成像中的应用可以大大提高CT系统的时间分辨率、空间分辨率和密度对比分辨率,还可以得到物体的构成比例,在物质分解方面表现良好。然而双能CT图像由于探测器接收到的光子数目不足、光量子分布不均下的量子噪声和探测器单元的非均匀响应等问题导致成像分辨率低。而高分辨率(High resolution,HR)的双能CT图像比起低分辨率(Low resolution,LR)的双能CT图像细节信息更加丰富,能更好地指导医疗和工业领域的工作。所以,如何获得高质量的双能CT图像是目前研究的热点问题。
[0003]通常有两类改善CT图像分辨率的方法,第一类是改善硬件设施,用更复杂的硬件组件,包括具有精细焦斑尺寸的X射线管,小间距的探测器元件以及用于CT扫描的更好的机械精度,但是这些改善硬件的方法通常成本较高;第二类是通过超分辨(Super Resolution,SR)方法改善成像质量,通过软件由低分辨率双能CT图像得到高分辨率双能CT图像。目前针对CT图像的超分辨方法主要有三种。第一种是基于模型的超分辨方法,主要包括最大似然估计法及最大后验概率估计法等,但是细节信息的恢复不够理想。第二种是基于字典学习的CT超分辨方法,该方法建立高低分辨率的图像字典,基于稀疏表示的思想,求解HRCT,但是字典规模较大时,质量和效率较低。第三种是基于深度学习的CT超分辨方法,近年来,深度学习技术蓬勃发展,其优异的图像处理性能引起了广大学者的极大关注。然而现有的基于深度学习的CT超分辨方法仍存在生成的双能CT图像的分辨率不足的问题。

技术实现思路

[0004]针对现有的基于深度学习的CT超分辨方法仍存在生成的双能CT图像的分辨率不足的问题,本专利技术提供一种基于Cycle

GAN的DU

GAN(Double U

Net Cycle

GAN)双能CT超分辨方法,可以有效抑制低分辨率CT图像的伪影,恢复了图像的细节信息,提高了图像质量,在一定程度上提高了双能CT分辨率,可以为后续的医学临床治疗和工业检测提供了帮助。
[0005]本专利技术提供的基于Cycle

GAN的DU

GAN双能CT超分辨方法,包括:
[0006]步骤1:构建DU

GAN网络模型,具体包括:采用Cycle

GAN网络作为模型框架,并对Cycle

GAN网络中的生成器和判别器均引入U

Net网络框架;
[0007]步骤2:构建数据集并将数据集划分为训练集、测试集和验证集,所述数据集由若干个图像对构成;其中,图像对的构建过程具体包括:对高分辨率双能CT图像进行模糊,降采样和加高斯噪声处理,得到低分辨率双能CT图像,所述高分辨双能CT图像和所述低分辨率双能CT图像组成一个图像对;
[0008]步骤3:设计图像域损失函数以构建联合损失函数,所述联合损失函数由对抗性损失函数、循环一致性损失函数和图像域损失函数组成;
[0009]步骤4:将训练集输入DU

GAN网络模型,通过联合损失函数进行有监督网络训练,并用验证集对训练的DU

GAN网络模型的性能进行评估;
[0010]步骤5:将测试集中低分辨率双能CT图像输入训练好的生成器得到相应的超分辨双能CT图像。
[0011]进一步地,步骤1中,生成器的编码器包括9层网络层,由浅层至深层依次为一个4
×
4Conv

LeakyReLU层,七个4
×
4Conv

IN

LeakyReLU层和一个4
×
4Conv

IN

ReLU层;生成器的解码器包括9层网络层,由浅层至深层依次为八个4
×
4Deconv

IN

ReLU层和一个4
×
4Deconv

Tanh层。
[0012]进一步地,步骤2中,判别器的编码器包括7层网络层,均为3
×
3Conv

SN

ReLU

Down层;判别器的解码器包括7层网络层,均为3
×
3Deconv

SN

ReLU

Up层;其中,Down表示二维平均池化降采样,Up表示双线性插值上采样。
[0013]进一步地,步骤3中,所述联合损失函数的公式为:
[0014][0015]其中,L
DU

GAN
表示联合损失函数,L
GAN
表示对抗性损失函数,L
cyc
表示循环一致性损失函数,L
image
表示图像域损失函数,代表期望算子,z和x分别表示真实的低分辨率和高分辨率的双能CT图像,Z和X代表真实的低分辨率和高分辨率的双能CT图像数据分布,G
A
和G
B
表示Cycle

GAN网络中的两个生成器,和表示判别器D
A
的编码器和解码器,和表示判别器D
B
的编码器和解码器,i,j分别表示图像的宽高尺寸,λ1和λ2表示循环一致性损失函数与图像域损失函数的损失系数。
[0016]本专利技术的有益效果:
[0017](1)本专利技术提供的基于Cycle

GAN的DU

GAN双能CT超分辨方法,利用生成对抗网络在学习对象样本的概率分布方面的优势,来学习不同能量下高低分辨率CT图像的映射关系,来提高低分辨率双能CT图像质量。
[0018](2)生成器使用U

Net网络架构,融合了底层特征与高层特征,保留了细节信息;
[0019](3)判别器使用U

Net网络架构,允许提供详细的像素集反馈给生成器,同时保持合成图像的全局本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于Cycle

GAN的DU

GAN双能CT超分辨方法,其特征在于,包括:步骤1:构建DU

GAN网络模型,具体包括:采用Cycle

GAN网络作为模型框架,并对Cycle

GAN网络中的生成器和判别器均引入U

Net网络框架;步骤2:构建数据集并将数据集划分为训练集、测试集和验证集,所述数据集由若干个图像对构成;其中,图像对的构建过程具体包括:对高分辨率双能CT图像进行模糊,降采样和加高斯噪声处理,得到低分辨率双能CT图像,所述高分辨双能CT图像和所述低分辨率双能CT图像组成一个图像对;步骤3:设计图像域损失函数以构建联合损失函数,所述联合损失函数由对抗性损失函数、循环一致性损失函数和图像域损失函数组成;步骤4:将训练集输入DU

GAN网络模型,通过联合损失函数进行有监督网络训练,并用验证集对训练的DU

GAN网络模型的性能进行评估;步骤5:将测试集中低分辨率双能CT图像输入训练好的生成器得到相应的超分辨双能CT图像。2.根据权利要求1所述的一种基于Cycle

Gan的DU

GAN双能CT超分辨方法,其特征在于,步骤1中,生成器的编码器包括9层网络层,由浅层至深层依次为一个4
×
4Conv

LeakyReLU层,七个4
×
4Conv

IN

LeakyReLU层和一个4
×
4Conv

IN

ReLU层;生成器的解码器包括9层网络层,由浅层至深层依次为八个4
×
4Deconv

【专利技术属性】
技术研发人员:梁宁宁宋思静仲心怡李磊张欣睿王毅忠蔡爱龙闫镔
申请(专利权)人:中国人民解放军战略支援部队信息工程大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1