一种基于深度学习的风云卫星图像的时间加密方法技术

技术编号:34328323 阅读:20 留言:0更新日期:2022-07-31 01:34
本发明专利技术公开了一种基于深度学习的风云卫星图像的时间加密方法,包括以下步骤:S1、获取风云卫星图像样本集,构造输入图像对以及标签图像;S2、构建可分离卷积神经网络;S3、利用输入图像对和标签图像对构建的可分离卷积神经网络采用三种运算模型训练;S4、将样本集中不连续时刻的两张图像组成输入图像对,输入训练后的可分离卷积神经网络中,完成不连续时刻卫星图像的逐分钟加密。本发明专利技术通过选取不同的样本集对使用的可分离卷积神经网络进行训练,然后使用训练后的网络对一天内不连续的时刻进行时间加密处理,有效地完成了间隔时间内的推演,细化图像数据的时间分辨率,最终得到高质量、高可用的中国区域逐分钟风云卫星图像。高可用的中国区域逐分钟风云卫星图像。高可用的中国区域逐分钟风云卫星图像。

【技术实现步骤摘要】
一种基于深度学习的风云卫星图像的时间加密方法


[0001]本专利技术涉及计算机视觉
,具体为一种基于深度学习的风云卫星图像的时间加密方法。

技术介绍

[0002]风云4A卫星装载了多个与气象领域相关的传感器如干涉式大气垂直探测仪、空间环境监测仪器、闪电成像仪。其中最重要的是多通道扫描成像辐射计(AGRI),与风云二号(FY

2)卫星单一的可见光通道相比,FY

4A装载的AGRI可获得14个观测通道数据,且能够提供彩色卫星图像,更有助于提升天气预报的准确度。
[0003]卫星图像在气象领域起着重要的作用,但由于技术和预算的限制,卫星仪器的设计不可避免地存在一些权衡,使得难以获取高时间分辨率的卫星图像。如风云FY

4A卫星提供的中国区域图像数据,在完整一天内存在着多种间断时间间隔,而长时间的时间间隔导致现存的FY

4A卫星图像逐渐不能满足气象监测日益增长的需求,因此,亟需对卫星图像进行时间加密。
[0004]在视频处理相关领域,视频帧内插是提高时间分辨率的一种方法,而卫星图像的时间加密任务类似于视频帧内插。传统的视频帧插值方法以帧采样、帧混合及光流法为主。帧采样只是简单地重复展现同一帧,所以最终视频会出现卡顿、不连贯等现象;帧混合在本质上也是重复展现同一帧,只是会对这帧图像做一些变换处理或叠加处理,因此最终视频在视觉呈现上流畅度会有一定程度的提升,但由于混合所得帧图像分辨率过低又会导致视频存在模糊现象;光流法与前两张方法的区别在于,光流法确实是根据前后两帧图像预测出了中间帧图像,但光流法计算量大,耗时长且对光线变化敏感,因此,传统的视频帧插值方法并不适用于卫星图像的时间加密。
[0005]目前为止,深度学习方法在视频处理相关领域取得了出色的成绩。尤其是应用于视频帧内插领域。例如,中国专利CN202011364443.0公开了基于卷积神经网络的视频插帧方法,该方法避免了传统插帧方法中运动估计过程对插帧质量的影响,通过深度卷积神经网络直接输出中间帧,实现了超越传统插帧方法的技术效果。
[0006]虽然近年来可应用于视频帧内插任务的深度卷积神经网络层出不穷,但鲜有报道可用的深度可分离卷积神经网络能够解决卫星图像的时间加密问题。

技术实现思路

[0007]本专利技术的目的在于提供一种基于深度学习的风云卫星图像的时间加密方法,以解决上述
技术介绍
中提出的问题。
[0008]为实现上述目的,本专利技术提供如下技术方案:
[0009]一种基于深度学习的风云卫星图像的时间加密方法,包括以下步骤:
[0010]S1、获取风云卫星图像样本集,并依据相邻时刻图像的时间间隔,构造用于训练可分离卷积神经网络的输入图像对以及标签图像;
[0011]S2、构建可分离卷积神经网络;
[0012]S3、利用输入图像对和标签图像对构建的可分离卷积神经网络采用三种运算模型训练;
[0013]S4、将样本集中不连续时刻的两张图像组成输入图像对,输入训练后的可分离卷积神经网络模型中,完成不连续时刻卫星图像的逐分钟加密。
[0014]优选的,步骤S1中,所述相邻时刻图像的时间间隔包括4分钟、7分钟、22分钟和52分钟。
[0015]优选的,步骤S3中,所述三种运算模型分别为:
[0016]基本运算模型(以下称为Model1模型),为一种通过向可分离卷积神经网络模型中输入一定时间间隔的两张图像,能够插值出一张中间时刻图像的运算模型,用于对时间间隔为4分钟、7分钟、22分钟的相邻时刻两张图像进行逐分钟加密处理;
[0017]第一中间过渡插值模型(以下称为Model2模型),为一种通过向可分离卷积神经网络模型中输入一定时间间隔的相邻时刻两张图像,能够插值出两张中间时刻图像的运算模型,用于将相邻两张图像之间52分钟的时间间隔加密减少至时间间隔为15分钟和22分钟;
[0018]第二中间过渡插值模型(以下称为Model3模型)与Model2模型的运算模型相同,用于对时间间隔为15分钟的两张图像进行逐分钟加密处理。
[0019]优选的,步骤S3中,选取卫星图像样本集中4分钟时间间隔的图像对和对应的标签图像,采用Model1模型对构建的可分离卷积神经网络进行训练,具体训练过程为:从原始卫星图像样本集中选取4张图像视为一组,记作M(t
i
,t
j
,t
k
),其中,j

i=4,k

j=4,即组内相邻时刻图像的时间间隔为4分钟,将第k分钟的图像t
k
和第i分钟的图像t
i
组成网络的输入图像对,t
j
作为网络的标签图像,输入构建的可分离卷积神经网络中进行训练,经过Model1模型可预测出中间时刻图像t

j
,t

j
与t
j
之间的损失函数定义为:
[0020]L
Model1
=||t

j

t
j
||1[0021]式中,t

j
为网络插值出的图像,t
j
为网络的标签图像,采用Model1模型训练构建的可分离卷积神经网络的损失函数为基于t

j
和t
j
逐像素差的L1损失函数。
[0022]优选的,步骤S3中,选取卫星图像样本集中52分钟时间间隔的图像对和对应的标签图像,采用Model2模型对构建的可分离卷积神经网络模型进行训练,具体训练过程为:从原始卫星图像样本集中选取4张图像视为一组,记为M(t
i
,t
j
,t
k
,t
l
),其中,l

i=52,j

i=15,k

j=22,l

k=15,即组内相邻时刻图像t
i
和t
j
的时间间隔为15分钟,t
j
和t
k
的时间间隔为22分钟,t
k
和t
l
的时间间隔为15分钟,将t
i
和t
l
作为网络的输入图像对,t
j
和t
k
作为网络的标签图像,经过Model2模型可预测出中间时刻图像t
j

和t
k

,将采用Model2模型训练构建的可分离卷积神经网络的损失函数定义为:
[0023]L
Model21
=||t

j

t
j
||1[0024]L
Model22
=||t

k...

【技术保护点】

【技术特征摘要】
L
Model22
=||t

k

t
k
||1L
Model2
=L
Model21
+L
Model22
式中,t

j
和t
k

为网络插值出的图像,t
j
和t
k
为网络的标签图像,L
Model21
是基于t

j
和t
j
逐像素差的损失函数,L
Model22
是基于t
k

和t
k
逐像素差的损失函数,采用Model2模型训练构建的可分离卷积神经网络的损失函数L
Model2
为L
Model21
和L
Model22
之和。6.根据权利要求3所述的基于深度学习的风云卫星图像的时间加密方法,其特征在于:步骤S3中,选取卫星图像样本集中15分钟时间间隔的图像对和对应的标签图像,采用Model3模型对构建的可分离卷积神经网络模型进行训练,具体训练过程为:从原始卫星图像样本集中选取4张图像视为一组,记为M(t
i
,t
j
,t
k
,t
l
),其中,l

i=15,j

i=4,k

j=4,l

k=7,即组内相邻时刻两张图像t
i
和t
j
及t
j
和t
k
的时间间隔均为4分钟,t
k
和t
l
的时间间隔为7分钟,将t
i
和t
l
作为网络的输入图像对,t
j
和t
k
作为网络的标签图像,经过Model3模型可预测出中间时刻图像t
j

和t
k

,将采用Model3模型训练构建的可分离卷积神经网络的损失函数定义为:L
Model31
=||t

j

t
j
||1L
Model32
=||t

k

t
k
||1L
Model3
=L
Model31
+L
Model32
式中,t

【专利技术属性】
技术研发人员:王明清黄小猛张家玮梁逸爽周峥
申请(专利权)人:无锡九方科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1