图像处理方法、装置和电子设备制造方法及图纸

技术编号:28037623 阅读:34 留言:0更新日期:2021-04-09 23:20
本发明专利技术提供了一种图像处理方法、装置和电子设备。其中,该方法包括:获取第一图像和第二图像,其中,第二图像包含目标物体;将第一图像和第二图像输入预先训练完成的图像处理模型中,输出转换图像;其中,转换图像包含第一图像的场景和目标物体;图像处理模型包含生成器模型,通过生成器模型进行第一图像和第二图像的图像处理,生成器模型基于注意力机制和U‑net结构构建。该方式可以从第二图像中提取目标物体,将提取后的目标物体迁移至第一图像内得到转换图像,在给定的场景视频中添加目标物体并完成风格信息的融合,保持了高质量的背景细节,可以保证场景中目标物体的多样性,迁移后的场景具有较高的视觉真实性。

【技术实现步骤摘要】
图像处理方法、装置和电子设备
本专利技术涉及视频火灾探测
,尤其是涉及一种图像处理方法、装置和电子设备。
技术介绍
与传统的视频火灾识别以及火灾检测方法相比,基于深度学习的火灾识别和检测方法可以达到极高的准确率。但深度学习的模型是高度数据驱动的,训练出一个准确率高、鲁棒性强的火灾识别网络需要大量的数据支持。在特定场景中,火的危险性质会给火灾图像的大量采集造成一定的困难。寻找适于描述大空间中火焰运动和变化的特征。因为深度学习的方法依赖于训练集的样本的数量和质量,所以正样本与负样本不均衡会影响到深度神经网络识别的准确率。由于安全限制,在很多特殊空间场景下无法直接实施点火,这将造成训练集与测试集的不一致。由固定的试验场所采集的数据存在背景和干扰情况单一的缺陷,如果这类干扰与火焰所具有的特征相似,识别火焰的模型或网络则会在很大程度上由于未能事先学习而造成误报,将会限制基于深度学习的火灾识别算法在特殊空间场景下的作用和效果。
技术实现思路
有鉴于此,本专利技术的目的在于提供一种图像处理方法、装置和电子设备,以提高基于深度本文档来自技高网...

【技术保护点】
1.一种图像处理方法,其特征在于,所述方法包括:/n获取第一图像和第二图像,其中,所述第二图像包含目标物体;/n将所述第一图像和所述第二图像输入预先训练完成的图像处理模型中,输出转换图像;其中,所述转换图像包含所述第一图像的场景和所述目标物体;所述图像处理模型包含生成器模型,通过所述生成器模型进行所述第一图像和所述第二图像的图像处理,所述生成器模型基于注意力机制和U-net结构构建。/n

【技术特征摘要】
1.一种图像处理方法,其特征在于,所述方法包括:
获取第一图像和第二图像,其中,所述第二图像包含目标物体;
将所述第一图像和所述第二图像输入预先训练完成的图像处理模型中,输出转换图像;其中,所述转换图像包含所述第一图像的场景和所述目标物体;所述图像处理模型包含生成器模型,通过所述生成器模型进行所述第一图像和所述第二图像的图像处理,所述生成器模型基于注意力机制和U-net结构构建。


2.根据权利要求1所述的方法,其特征在于,将所述第一图像和所述第二图像输入预先训练完成的图像处理模型中,输出转换图像的步骤,包括:
从所述第二图像中提取包含所述目标物体的目标物体图像;
对所述目标物体图像和所述第一图像进行拼接处理,得到待转换图像;所述待转换图像包含所述第一图像的场景和所述目标物体;
将所述待转换图像输入所述生成器模型中,输出转换图像。


3.根据权利要求1所述的方法,其特征在于,所述目标物体为火焰。


4.根据权利要求1所述的方法,其特征在于,所述生成器模型包含相同深度的第一卷积层和第二卷积层;所述U-net结构在所述第一卷积层和所述第二卷积层之间跳跃连接;
所述注意力机制加载在所述生成器模型的指定位置;其中,所述指定位置至少包含以下之一:所述生成器模型的前端、中端或末端。


5.根据权利要求1所述的方法,其特征在于,所述图像处理模型还包含判别器模型;所述判别器模型的结构包含条件生成对抗网络CGAN结构和马尔可夫判别器PatchGAN结构。


6.根据权利要求5所述的方法,其特征在于,所述图像处理模型通过以下步骤训练:
获取第一训练样本、第二训练样本和真实样本;其中,所述第二图像包含训练物体,所述真实样本为在所述第一训练样本的场景下拍摄的包含所述训练样本的图像;
从所述第二训练样本中提取包...

【专利技术属性】
技术研发人员:卜乐平王腾闫正军杨植凯侯新国欧阳继能周扬王灿
申请(专利权)人:中国人民解放军海军工程大学
类型:发明
国别省市:湖北;42

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1