一种基于压缩神经网络的图像去噪方法技术

技术编号:25347455 阅读:45 留言:0更新日期:2020-08-21 17:06
本发明专利技术公开了一种基于压缩神经网络的图像去噪方法。首先将噪声图像进行分块来降低训练模型的代价,随后经过压缩神经网络进行图像去噪,增强机制、空洞卷积融合到所发明专利技术的去噪网络中提高去噪的性能,最后利用全局残差操作得到干净的图像。去噪网络由增强块和压缩块组成。增强块包括子网络、一个卷积层及激活函数、空洞卷积及激活函数,二个子网络通过Concat操作被连接到一起,增强捕获特征的鲁棒性,之后经过卷积层和激活函数对上述提取的特征信息进行继续学习。压缩块是用来压缩网络的参数和减少模型的训练代价。压缩模块包括卷积及激活函数、普通的卷积及激活函数和卷积层。这里的空洞卷积能提高去噪网络的性能。

【技术实现步骤摘要】
一种基于压缩神经网络的图像去噪方法专利技术名称一种基于压缩神经网络的图像去噪方法权利要求书一种基于压缩神经网络的图像去噪方法,用于处理图像去噪,其实现过程如下:1.将噪声图像分块成大小为57×57子噪声图像,并将这些子噪声图像作为去噪网络的输入。2.将这些子噪声图像经过CNDN网络得到干净图像。3.上述的CNDN网络一共有增强块和压缩块。其中增强块有2个相同9层的子网络组成:1-3层为卷积和Tanh,4-9层为空洞卷积和Sigmoid,通过一个Concat将二个子网络连接到一起并作为第10层的输入,第10层包括卷积和ReLU,之后第10层输出作为压缩块的输入。压缩块由10层组成:1-8层1×1卷积和激活函数PReLU,第9层为普通的卷积(默认为3×3)和激活函数ReLU,第10层为卷积层,输出的是噪声图像。4.上述涉及的空洞卷积利用扩大感知来捕获更多上下文信息并减少网络的深度。5.利用全局的残差技术把获得噪声从噪声图像中得到干净的图像。6.上述所涉及的CNDN中不同激活函数能增大网络的差异性并提高去噪的性能。7.压缩块中的1×1能去除CNDN没用的参数,这能提高网络去噪的效率。
本专利技术设计低水平视觉与深度学习领域,尤其涉及一种基于压缩神经网络的图像去噪方法。
技术介绍
随着互联网技术、大数据技术的发展,硬件芯片的升级,人工智能技术在图像处理上有越来越多的广泛的应用,如:医学上CT,无人机灾难救援,月球探测,天气预测以及大众娱乐。其中,这些应用需要相机捕获图像,而在恶劣的天气(如:沙尘暴、雨天、黑天)以及相机抖动等状况下所拍出照片是不清楚,恢复这类图像的技术叫做图像去噪方法。随着图像处理单元GPU的出现,深度学习技术被广泛地应用到图像去噪上,如:2016年提出的深度去噪网络CNN利用卷积,ReLU和BN来得到干净的图像。2019年提出的MWCNN通过小波和UnNet来训练去噪网络;2019年提出的BRDNet利用BRN和残差等来对真实噪声图像进行去噪并取得良好的效果。通过以上研究说明,深度CNN是非常适合处理去噪任务的。
技术实现思路
为了有效地解决以上问题,本专利技术提出了一种压缩神经网络的图像去噪方法。本专利技术有较少参数和好的性能,同时本专利技术在其他低水平视觉任务如图像超分辨上也适用。此外,本专利技术在军用、民用和医用等都有广泛地应用。因此,本专利技术有良好现实应用前景和强的理论研究意义。附图说明:附图1:本专利技术的整体流程附图2:CNDN的网络结构图附图3:给出的噪声图像附图4:噪声图像块附图5:网络预测的噪声映附图6:CNDN得到的干净图像块附图7:一张噪声图像附图8:去噪网络预测噪声映射附图9:CNDN得到的干净图像为了解决以上问题,本专利技术提出的以下解决方法:1.本专利技术的整体流程图,如图1本所示。2.把噪声图像进行分成57×57大小的图像块,这有利于提高噪声网络训练的速度。3.利用不同激活函数Sigmoid、Tanh、PReLU、ReLU能增大网络差异性提高网络去噪性能。4.过深网络容易梯度爆炸或者梯度消失,本专利技术通过增加网络宽度来减少网络深度解决这个问题。5.在不增大网络的复杂度,利用空洞卷积来增大网络的感知野也能提高网络的去噪性能。6.本专利技术所设计的网络有2个子模块组成:增强块和压缩块。增强块负责增强去噪网络的性能。压缩块用来减少网络的参数、降低训练网络的复杂度和提高去噪网络训练的效率。7.本专利技术所设计的增强块由2个10层相同的子网络组成,其中每个子网络的前3层为卷积和激活函数Tanh,第4-9层为空洞卷积和激活函数Sigmoid组成,之后第9层的输出用Concat操作连接到一起,这能增强捕获特征的鲁棒性,之后经过第10层卷积层和激活函数ReLU对上述提取的特征进行学习,之后经过压缩块来对训练模型残差进行提取或者压缩,这能降低训练去噪网络的复杂度和提高训练去噪网络的效率。所设计网络的结构如图2所示,代表残差技术,实际就是减法操作。8.增强块所设计的Sigmoid被实现的过程如下:其中,在公式(1)中x代表输入,f(x)代表函数的输出。9.增强块中所涉及的Tanh函数能表示成公式(2):其中,在公式(2)中x代表输入,tanh(x)代表函数的输出。10.增强块中所涉及的PReLU函数能被表示成公式(3):其中,在公式(3)中i表示不同的通道。如果ai=0,此时PReLU是ReLU。11.增强块中所涉及的ReLU函数能被表示成公式(4):其中,在公式(4)中λ是一个反向传播过程中学习的变量,它的变化范围[0,1)。12.增强块中所涉及的空洞卷积空洞卷积主要依靠空洞卷积因子和层数来映射更多特征区域,假设空洞卷积因子为2,网络的深度为n,它映射的大小能被通过公式(5)来被表示:f=(4n+1)×(4n+1)(5)其中,f为空洞卷积映射的大小13.本专利技术所设计的压缩块小卷积本专利技术所涉及的压缩块包括10层组成,1-8层1×1卷积和激活函数PReLU,第9层为普通的卷积和激活函数ReLU,第10层为卷积层,输出的噪声图像。14.压缩块中的1×1大小的卷积能减少网络的参数,提高网络的运行效率。15.本专利技术最后利用残差技术(RL)从给出的噪声图像中得到根据图像,这个过程被表示为公式(6):C=I-N(6)其中,I为输入的噪声图像,N是压缩块输出的预测的噪声映射,C是得到的干净图像。举例:(1)本专利技术给出的噪声图像如图3所示。(2)本专利技术将图3中的噪声图像分块后的得到一块,如图4所示。(3)本专利技术经过预测的噪声映射如图5所示。(4)本专利技术最后得到的干净图像块如图6所示。(5)我们用噪声块来训练去噪模型,当模型训练好后一幅整张噪声图像作为CNDN如图7所示。(6)CNDN中压缩块的噪声映射输出,如图8所示。(7)CNDN中最后得到的干净图像,如图9所示。本文档来自技高网
...

【技术保护点】
1.在一种基于压缩神经网络的图像去噪方法,用于处理图像去噪,其实现过程如下:/n(1)将噪声图像分块成大小为 57×57子噪声图像,并将这些子噪声图像作为去噪网络的输入;/n(2)将这些子噪声图像经过CNDN网络得到干净图像;/n(3)上述的CNDN网络一共有增强块和压缩块;其中增强块有2个相同9层的子网络组成:1-3层为卷积和Tanh,4-9层为空洞卷积和Sigmoid,通过一个Concat将二个子网络连接到一起并作为第10层的输入,第10层包括卷积和ReLU,之后第10层输出作为压缩块的输入;压缩块由10层组成:1-8层1×1卷积和激活函数PReLU,第9层为普通的卷积 (默认为3×3)和激活函数ReLU,第10层为卷积层,输出的是噪声图像;/n(4)上述涉及的空洞卷积利用扩大感知野来捕获更多上下文信息并减少网络的深度;/n(5)利用全局的残差技术把获得噪声从噪声图像中得到干净的图像;/n(6)上述所涉及的CNDN中不同激活函数能增大网络的差异性并提高去噪的性能;/n(7)压缩块中的1×1能去除CNDN没用的参数,这能提高网络去噪的效率。/n

【技术特征摘要】
1.在一种基于压缩神经网络的图像去噪方法,用于处理图像去噪,其实现过程如下:
(1)将噪声图像分块成大小为57×57子噪声图像,并将这些子噪声图像作为去噪网络的输入;
(2)将这些子噪声图像经过CNDN网络得到干净图像;
(3)上述的CNDN网络一共有增强块和压缩块;其中增强块有2个相同9层的子网络组成:1-3层为卷积和Tanh,4-9层为空洞卷积和Sigmoid,通过一个Concat将二个子网络连接到一起并作为第10层的输入,第10层包括卷积和ReLU,之后第10层...

【专利技术属性】
技术研发人员:付立军陈德运李骜孙玲杨海陆
申请(专利权)人:哈尔滨理工大学
类型:发明
国别省市:黑龙江;23

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1