【技术实现步骤摘要】
一种Swin Transformer微光图像增强方法
[0001]本专利技术属于图像处理
,具体属于RGB真彩色图像恢复技术,涉及一种Swin Transformer微光图像增强方法。
技术介绍
[0002]微光条件下成像时进入镜头的光子数量较少,所形成的图像亮度低,难以分辨颜色和目标结构等信息。尽管通过延长曝光时间可一定程度提高图像亮度,但光学传感器易产生大量噪声。因此,直接获取的微光图像多存在对比度低、噪声大、颜色失真及细节模糊等退化问题。微光图像视觉感受质量差,同时也会影响后续的图像处理任务,如图像分割、目标识别和视频监控等。微光图像增强技术,能够基于一系列数学方法将直接获取的微光图像恢复至正常光照水平,在提升视觉感受质量的同时,也极大提高了后续图像处理任务的精度,因此成为图像处理领域的研究热点之一。
[0003]早期微光图像增强方法主要基于直方图均衡化(HE)和Retinex理论。HE图像增强是以累计分布函数为基础的直方图修改方法,将图像直方图调整为均衡分布以拉伸图像动态范围,从而提高图像对比度。该类方 ...
【技术保护点】
【技术特征摘要】
1.一种Swin Transformer微光图像增强方法,其特征在于,按照以下步骤具体实施:步骤1、构建预处理模块,该预处理模块的输入为原始微光图像,大小为H*W*3;该预处理模块的输出是大小为H/4*W/4*96的特征图;步骤2、构建Swin Transformer模块,该Swin Transformer模块的输入数据是步骤1的输出特征,大小为H/4*W/4*96;该Swin Transformer模块的输出是提取后的图像特征,大小为H/4*W/4*96;步骤3、构建恢复模块,该恢复模块的输入数据是步骤2的输出特征,大小为H/4*W/4*96;该恢复模块的输出是增强后高质量无噪声的彩色图像,大小为H*W*3。2.根据权利要求1所述的Swin Transformer微光图像增强方法,其特征在于:所述的步骤1中,预处理模块的结构依次为:原始微光图像作为输入图像
→
Patch Partition层
→
Linear Embedding层
→
输出特征(Output_feature),其中,Patch Partition层为卷积运算,卷积核大小为4*4,卷积步长为4,特征映射总数为48个;Linear Embedding层为线性运算进行特征映射,卷积核大小为H/4*W/4,特征映射总数为96个。3.根据权利要求1所述的Swin Transformer微光图像增强方法,其特征在于:所述的步骤2中,Swin Transformer模块的结构依次为:步骤1的输出特征作为输入特征
→
LN正则化层
→
W
‑
MSA子模块或者SW
‑
MSA子模块
→
残差连接层
→
LN正则化层
→
前馈网络
→
残差连接层
→
输出特征;该Swin Transformer模型共循环6次,奇数层与偶数层依次间隔连接,其中三个奇数层采用的是W
‑
MSA子模块,三个偶数层采用的是SW
‑
MSA子模块。4.根据权利要求3所述的Swin Transformer微光图像增强方法,其特征在于:所述的LN正则化层是进行LN正则化处理,对输入数据进行归一化处理,将其归到0到1之间;残差连接层是进行残差连接,解决梯度消失和权重矩阵退化问题;前馈网络由两层前馈神经网络组成,第一层前馈网络先把输入向量从d
model
维度映射到4*d
model
维度,激活函数为ReLU函数,第二层前馈网络再从4*d
model
维度映射回d
model
维度,不使用激活函数,前馈网络的表达式如下式(1):FFN(x)=max(0,xW1+b1)W2+b2ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)W
‑
MSA子模块首先对输入特征进行窗口划分,在每个划分的小窗口上进行多头自注意力计算;W
‑
MSA子模块将输入特征映射到不同的子空间中,再分别在所有子空间上做点乘运算计算注意力向量,最后把所有子空间计算得到的注意力向量拼接起来,并映射到原输入空间中得到最终的注意力向量作为输出,W
‑
MSA子模块的表达式如下式(2):MultiHead(Q,K,V)=Concat(head1,...,head
h
)W0head
i
=Attention(QW
iQ
,KW
iK
,VW
iV
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)其中,Q,K,V分别为W
‑
MSA子模块的输入,即查询向量、键向量、值向量,W
iQ
为不同子空间中Q的映射矩阵,W
iK
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。