基于空间位置偏移感知的免配准多聚焦图像融合方法技术

技术编号:41740020 阅读:27 留言:0更新日期:2024-06-19 12:59
本发明专利技术涉及基于空间位置偏移感知的免配准多聚焦图像融合方法,属于图像融合技术领域、目标检测技术领域。本发明专利技术包括步骤:检测输入源图像的聚焦区域;将多聚焦图像对输入特征提取层,提取源图像特征;将源图像特征和聚焦检测结果输入空间位置偏移感知模块,获取偏移核大小以及各偏移核的概率;利用偏移核和偏移概率对待搬移图像的特征进行搬移,实现源图像特征空间位置的对齐。对齐后的特征经过重建解码层,计算对齐损失,优化空间偏移感知层;将搬移后的特征与基准图像的特征送入解码器,重建出无伪影的融合结果;计算融合损失,优化网络参数。本发明专利技术有效缓解了未配准图像融合产生的伪影问题,能够获取高质量的融合结果。

【技术实现步骤摘要】

本专利技术涉及基于空间位置偏移感知的免配准多聚焦图像融合方法,属于图像融合、目标检测。


技术介绍

1、由于光学镜头的景深限制,在景深范围内的物体能够清晰成像,而在景深范围之外的物体成像模糊。多聚焦图像融合则能打破景深限制,通过整合多幅同一场景聚焦位置不同的图像,得到一幅所有物体都清晰成像的全聚焦图像。这为下游的高级任务提供了有力的支持。但是,在现实场景中,由于摄像机位置有偏差或者是摄像机的抖动,很难得到两幅位置完全配准的多聚焦图像。直接融合这种未配准的图像,获得的融合图像中会存在大量的伪影。为了解决这个问题,现有的大部分方法均采用先配准后融合的策略。但是,采用这种策略实现融合,融合结果性能受配准算法影响。并且,现有的融合算法需要大量的计算资源。为了解决上述问题,设计了特征层面上的特征位置搬移,避免了先配准后融合策略带来的负面影响,提出了基于空间位置偏移感知的免配准多聚焦图像融合方法。


技术实现思路

1、为了解决上述问题,本专利技术提出了基于空间位置偏移感知的免配准多聚焦图像融合方法,设计了特征层面上的特征位置本文档来自技高网...

【技术保护点】

1.基于空间位置偏移感知的免配准多聚焦图像融合方法,其特征在于:所述方法的具体步骤如下:

2.根据权利要求1所述的基于空间位置偏移感知的免配准多聚焦图像融合方法,其特征在于,所述步骤1中,训练数据集的合成操作如下:从ILSVRC2012数据集上收集全聚焦图像,通过OpenCV中的findContours函数为每幅图生成对应的二值掩码;随机生成两组不相同的坐标,以该坐标为中心,从全聚焦图像中随机裁剪出两幅大小为256×256的源图像、,以及裁出对应的掩码图像、;利用上述源图像及掩码图像构造未配准图像对:

3.根据权利要求1所述的基于空间位置偏移感知的免配准多聚焦图像...

【技术特征摘要】

1.基于空间位置偏移感知的免配准多聚焦图像融合方法,其特征在于:所述方法的具体步骤如下:

2.根据权利要求1所述的基于空间位置偏移感知的免配准多聚焦图像融合方法,其特征在于,所述步骤1中,训练数据集的合成操作如下:从ilsvrc2012数据集上收集全聚焦图像,通过opencv中的findcontours函数为每幅图生成对应的二值掩码;随机生成两组不相同的坐标,以该坐标为中心,从全聚焦图像中随机裁剪出两幅大小为256×256的源图像、,以及裁出对应的掩码图像、;利用上述源图像及掩码图像构造未配准图像对:

3.根据权利要求1所述的基于空间位置偏移感知的免配准多聚焦图像融合方法,其特征在于,所述步骤2中,具体操作如下:将预处理后的多聚焦图像对输入聚焦检测网络, 得到每幅预处理后的输入源图像的聚焦检测结果:

4.根据权利要求1所述的基于空间位置偏移感知的免配准多聚焦图像融合方法,其特征在于,所述步骤3中,计算聚焦检测损失,优化聚焦检测网络参数,聚焦损失的计算通过二分类交叉熵损失实现,计算过程如下:

【专利技术属性】
技术研发人员:王丹李华锋张亚飞
申请(专利权)人:昆明理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1