一种基于WGAN模型的图像通道融合方法技术

技术编号:18668676 阅读:35 留言:0更新日期:2018-08-14 20:45
本发明专利技术公开了一种基于WGAN模型的图像通道融合方法,属于深度学习神经网络领域,包括以下步骤:S1、构造原始生成对抗网络模型;S2、构造沃瑟斯坦距离,作为对抗网络模型的评判指标;S3、初始化随机噪声,输入生成器中;S4、在WGAN模型中利用通道融合对图像进行卷积操作;S5、将通道融合操作得到的损失函数输入生成器进行后续训练。本方法构建的基于通道融合的WGAN模型,改变了判别器、生成器接收图片后的卷积方式,在每次卷积之后都对图像各个通道的特征图进行融合,从而能够提高整个网络训练模型的鲁棒性。

An image channel fusion method based on WGAN model

The invention discloses an image channel fusion method based on WGAN model, which belongs to the field of depth learning neural network, including the following steps: S1, constructing the primitive generated antagonistic network model; S2, constructing the Wasserstein distance as the evaluation index of antagonistic network model; S3, initializing random noise, input generator; 4. In WGAN model, channel fusion is used to convolute the image; S5, the loss function is input into the generator for subsequent training. The WGAN model constructed by this method based on channel fusion changes the convolution mode of the discriminator and the generator after receiving the image. After each convolution, the feature maps of each channel of the image are fused, which can improve the robustness of the whole network training model.

【技术实现步骤摘要】
一种基于WGAN模型的图像通道融合方法
本专利技术涉及深度学习神经网络,具体涉及一种基于WGAN模型的图像通道融合方法。
技术介绍
生成式对抗网络(GenerativeAdversarialNetwork,简称GAN)是由Goodfellow在2014年提出的深度学习框架,它基于“博奕论”的思想,构造生成器(generator)和判别器(discriminator)两种模型,前者通过输入(0,1)的均匀噪声或高斯随机噪声生成图像,后者对输入的图像进行判别,确定是来自数据集的图像还是由生成器产生的图像。在传统的对抗网络模型中,对于生成器生成图像质量并没有统一的评判标准,因此,需要本领域技术人员选取一种合理的参数作为生成对抗网络的评判指标,可以使得整个模型的训练能够往正确的方向进行,同时,亟待提出一种特征融合方法,提高深度学习神经网络的鲁棒性。
技术实现思路
本专利技术的目的是为了解决现有技术中的上述缺陷,提供一种基于WGAN模型的图像通道融合方法,该方法利用沃瑟斯坦距离作为生成对抗网络的评判指标,从而使整个模型的训练能够往正确的方向进行,另外利用通道融合学习图像特征的方法,在每一层卷积之后都对图像各个通道的特征图进行融合,提高了整个网络的鲁棒性。本专利技术的目的可以通过采取如下技术方案达到:一种基于WGAN模型的图像通道融合方法,所述的图像通道融合方法包括以下步骤:S1、构造原始生成对抗网络模型,通过生成器生成图像并输入至判别器进行网络训练;S2、构造沃瑟斯坦距离,作为对抗网络模型的评判指标;S3、初始化随机噪声,输入生成器中;S4、在WGAN模型中利用通道融合对图像进行卷积操作;S5、将通道融合操作得到的损失函数输入生成器进行后续训练。进一步地,所述的步骤S4过程如下:S41、将图像分解成多个通道;S42、针对图像的各个通道,利用不同的卷积核进行卷积;S43、在每一层卷积完成之后,对所有通道的特征图融合。进一步地,所述的步骤S5过程如下:S51、将步骤S4中卷积之后的特征图,输入判别器进行判别;S52、将通道融合操作得到的损失函数输入生成器进行后续训练。进一步地,所述的损失函数的表达式为:其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度。本专利技术相对于现有技术具有如下的优点及效果:1、在传统的模型中,图像各个通道的特征图经过多层卷积之后才进行融合,本方法采用了通道融合的方法,在每一层卷积结束之后,都对图像各个通道的特征图进行融合,再进行后续训练。在这种情况下,整个网络的鲁棒性得到了进一步增强。2、在本专利技术中,利用沃瑟斯坦距离作为生成对抗网络的评判指标,从而使整个模型的训练能够往正确的方向进行附图说明图1是本专利技术中基于WGAN模型的图像通道融合方法的训练流程图;图2是针对特定的卷积层进行通道融合的示意图。具体实施方式为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。实施例如附图1和附图2所示。本实施例公开了一种基于WGAN模型的图像通道融合方法,具体包括下列步骤:步骤S1、构造原始生成对抗网络模型,通过生成器生成图像并输入至判别器进行网络训练。步骤S2、构造沃瑟斯坦距离,作为对抗网络模型的评判指标;不同的卷积核,体现在矩阵数值的不同、行列数的不同。构造多个卷积核,在处理图像的过程中,不同的卷积核意味着能够在网络训练的过程中学习到生成图像的不同特征。在本专利技术所涉及到的网络模型中,利用沃瑟斯坦距离作为生成对抗网络的评判指标,从而使整个模型的训练能够往正确的方向进行。在传统的模型中,图像各个通道的特征图经过多层卷积之后才进行融合,本方法采用了通道融合的方法,在每一层卷积结束之后,都对图像各个通道的特征图进行融合,再进行后续训练。在这种情况下,整个网络的鲁棒性得到了进一步增强。在实际应用中,应该根据数据集图像特征的复杂程度,设置卷积核的个数。步骤S3、初始化随机噪声,输入生成器中。步骤S4、在WGAN模型中利用通道融合对图像进行卷积操作。在具体实施方式中,该步骤具体如下:S41、将图像分解成多个通道;S42、针对图像的各个通道,利用不同的卷积核进行卷积;S43、在每一层卷积完成之后,对所有通道的特征图融合,进行后续训练。步骤S5、将通道融合操作得到的损失函数输入生成器进行后续训练。具体过程如下:S51、将步骤S4中卷积之后的特征图,输入判别器进行判别;S52、将通道融合操作得到的损失函数输入生成器进行后续训练。损失函数的作用是衡量判别器对生成图像判断的能力。损失函数的值越小,说明在当前迭代中,判别器能够有较好的性能辨别生成器的生成图像;反之则说明判别器的性能较差。损失函数的表达式为:其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度。综上所述,本实施例公开了一种基于WGAN模型的图像通道融合方法,通过引入了沃瑟斯坦距离,使得整个网络在训练的过程中有了明确的方向和评判标准。在传统的模型中,图像各个通道的特征图经过多层卷积之后才进行融合,本专利技术采用了通道融合的方法,在每一层卷积结束之后,都对图像各个通道的特征图进行融合,再进行后续训练。在这种情况下,整个网络的鲁棒性得到了进一步增强。上述实施例为本专利技术较佳的实施方式,但本专利技术的实施方式并不受上述实施例的限制,其他的任何未背离本专利技术的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本专利技术的保护范围之内。本文档来自技高网...

【技术保护点】
1.一种基于WGAN模型的图像通道融合方法,其特征在于,所述的图像通道融合方法包括以下步骤:S1、构造原始生成对抗网络模型,通过生成器生成图像并输入至判别器进行网络训练;S2、构造沃瑟斯坦距离,作为对抗网络模型的评判指标;S3、初始化随机噪声,输入生成器中;S4、在WGAN模型中利用通道融合对图像进行卷积操作;S5、将通道融合操作得到的损失函数输入生成器进行后续训练。

【技术特征摘要】
1.一种基于WGAN模型的图像通道融合方法,其特征在于,所述的图像通道融合方法包括以下步骤:S1、构造原始生成对抗网络模型,通过生成器生成图像并输入至判别器进行网络训练;S2、构造沃瑟斯坦距离,作为对抗网络模型的评判指标;S3、初始化随机噪声,输入生成器中;S4、在WGAN模型中利用通道融合对图像进行卷积操作;S5、将通道融合操作得到的损失函数输入生成器进行后续训练。2.根据权利要求1所述的一种基于WGAN模型的图像通道融合方法,其特征在于,所述的步骤S4过程如下:S41、将图像分解成多个通道;S42、针对图像的...

【专利技术属性】
技术研发人员:周智恒李立军
申请(专利权)人:华南理工大学
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1