【技术实现步骤摘要】
一种基于深度学习的全彩夜视增强方法和系统
[0001]本专利技术涉及一种基于深度学习的全彩夜视增强方法和系统,属于计算机视觉领域。
技术介绍
[0002]夜视成像增强是一种后端图像处理技术,在获得夜间的红外或微光图像后,通过算法处理,去除噪声和色彩偏差,形成清晰且易于观察的增强后图像。红外图像的增强一般使用滤波算法实现噪声和背景的抑制,突出主要目标。黑白微光图像的增强与红外类似,主要是使用自适应滤波等方法增强图像的信噪比。此外还有一些增强算法赋予黑白微光图像伪彩色信息,以突出场景中的主要目标并提升使用者的观察体验。与上述夜视技术相比,采集全彩微光图像,结合深度学习技术提升微光图像的质量,可以获得色彩准确、信噪比高、亮度均衡的图像,提升夜视观感。
[0003]目前的人工智能微光增强技术使用配对或非配对的微光图像和正常光照下的图像训练网络,实现从微光到正常光照的映射,已取得较好的微光增强效果。但缺少星光级或大气辉光级的全彩夜视增强技术,且无法兼顾提升图像信噪比和调整亮度,当环境光照度下探到10
‑3Lux及以下时,现有基于深度学习的微光增强算法无法有效提升图像质量。
技术实现思路
[0004]为了解决现有技术中存在的上述技术问题,提升在最低10
‑3Lux照度环境下的全彩夜视增强效果,本专利技术提出了去噪和亮度调整分离的基于深度学习的全彩夜视增强方法和系统。
[0005]本专利技术方法的具体技术方案如下:
[0006]一种基于深度学习的全彩夜视增强方法,包括如下步骤
【技术保护点】
【技术特征摘要】
1.一种基于深度学习的全彩夜视增强方法,其特征在于,包括如下步骤:S1:采集RAW格式的微光图像,将图像信息记为X
RAW
;S2:对所述图像信息X
RAW
进行像素融合,然后转化为RGB格式图像,记为X
RGB
;S3:使用步骤S1相同的采集参数并利用步骤S2的处理方法,获得N张RGB格式的暗场图像,将N张暗场图像的均值作为黑电平信息,记为X
BLACK
;S4:选取所述图像信息X
RAW
的四周和中心这五个典型位置中M
×
N分辨率的图像块,计算均值并进一步计算得到线性提亮系数和去噪网络的输入X
IN1
=Ratio
×
(X
RGB
‑
X
BLACK
);S5:将X
IN1
输入去噪网络,得到去除噪声之后的图像X
OUT1
;S6:由步骤S4中获取的系数Ratio,恢复去噪后图像X
OUT1
的初始亮度分布,作为自适应亮度调整网络的输入X
IN2
=X
OUT1
/Ratio;S7:将X
IN2
输入自适应亮度调整网络,得到最终输出的图像序列。2.根据权利要求1所述的一种基于深度学习的全彩夜视增强方法,其特征在于,所述去噪网络包括编码器、特征映射单元和解码器,所述编码器用于将尺寸为H
×
W
×
3的RGB图像编码为尺寸为的特征图,所述解码器用于将尺寸为的特征图数据重排为尺寸为H
×
W
×
3的输出图像;所述特征映射单元包括残差网络和门控循环单元,用于完成噪声特征向无噪声特征的映射。3.根据权利要求2所述的一种基于深度学习的全彩夜视增强方法,其特征在于,所述特征映射单元由两个残差网络和一个门控循环单元组成,具体实现过程包括如下步骤:首先将尺寸为的特征图拆分为两个的子图,分别使用两个残差网络提取两个子图和中的有效特征,拼接得到门控循环单元的输入G
IN
,所述门控循环单元同时接收上一帧图像经门控循环单元处理得到的隐含特征层H
t
‑1,并输出当前帧的隐含特征层H
t
,其中,在起始帧,使用全0的数组作为门控循环单元的隐含特征层;使用所述残差网络获取从隐含特征层H
t
到无噪声特征的映射。4.根据权利要求1所述的一种基于深度学习的全彩夜视增强方法,其特征在于,所述去噪网络使用有监督学习方法进行训练,训练数据为人为添加噪声的仿真数据集,噪声建模为高斯噪声、泊松噪声、动态条纹噪声和色彩退化噪声的混合结果,训练时统计图像序列的平均损失作为误差进行反向传播。5.根据权利要求4所述的一种基于深度学习的全彩夜视增强方法,其特征在于,所述去噪网络的损失函数为:L
D...
【专利技术属性】
技术研发人员:彭成磊,刘知豪,岳涛,潘红兵,王宇宣,
申请(专利权)人:南京大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。