【技术实现步骤摘要】
基于递归门控卷积和注意力机制改进的ENSO时空预测方法
[0001]本专利技术属于深度学习时空预测领域,具体涉及基于递归门控卷积和注意力机制改进的ENSO时空预测方法。
技术介绍
[0002]时空序列预测问题包含了时间和空间两个方面的因素,这里时间指的就是前后的序列,空间既指向图片上的目标以及目标的移动和变化的空间信息,也指表格化数据中的GPS数据或者经纬度的空间信息。ENSO(El
‑
Southern Oscillation,厄尔尼诺南方涛动)预测的数据采用的是后者经纬度的空间信息。
[0003]当前存在的很多时空序列模型存在着缺点与不足。传统的RNN模型会导致严重的梯度爆炸和梯度消失问题并且无法很好的处理远距离依赖。为了缓解这些问题,并进一步优化RNN模型,1997年Hochreater和Schmidhuber提出了Long Short
‑
Term Memory(LSTM)模型,通过注入gate学习选择性的记忆重要信息和遗忘次要信息,提高了RNN模型性能。为了更好的将LSTM模型应用在图像序列上,2015年施行建博士提出了一种将卷积结构与LSTM相结合的新型网络Convolutional LSTM,该模型可以同时学习到空间和时间上特征。2016年,施行建博士继续提出了轨迹GRU来克服卷积结构的局部不变性。2017年,Yunbo Wang等人对ConvLSTM的内部结构进行了改进,提出一种“之”字形网络PredRNN以有效利用横向和纵向信息。2018年又进一步对此进行了改
【技术保护点】
【技术特征摘要】
1.基于递归门控卷积和注意力机制改进的ENSO时空预测方法,其特征在于,包括如下步骤:S1、采集待观察区域的ENSO原始数据,进行预处理,构建ENSO样本数据集;S2、构建两层Dense Block网络对ENSO样本数据集进行压缩,获得时空序列的高维空间特征F;S3、将步骤S2得到的时空序列的高维空间特征图输入至注意力机制连接MIMG
‑
Encoder
‑
Decoder架构中,进行自适应特征修正,通过预测网络获得最终预测结果;S4、以步骤S3获得的预测结果为输入,经过转置卷积模块,恢复特征图原始大小;S5、ENSO样本数据集中T帧数据的矢量序列为输入、其对应的预测序列为输出,结合两层Dense Block网络、注意力机制连接MIMG
‑
Encoder
‑
Decoder架构、以及转置卷积模块构建并训练ENSO时空预测模型,并在训练中采用早停法、设置学习率自动衰减。2.根据权利要求1所述的基于递归门控卷积和注意力机制改进的ENSO时空预测方法,其特征在于,步骤S2具体为:以两层Dense Block模块构建一个卷积神经网络,以X=(B,S,C,H,W)为输入,其中,B表示批量大小,S表示时间步,C表示通道数,H表示输入特征图的高,W表示输入特征图的宽,通过Dense Block模块提取每次输入的空间特征,每一层的输入都是前面所有层的输出的集合,如下式:x
k
‑1=H
k
([x0,x1,
…
,x
k
‑2])其中,X0表示第1个月区域的SSTA经过第一层后提取的特征值,该层学习到的特征X
k
‑1被直接传递到后面的所有层作为输入,如下式:X
k
=H
k
([x0,x1...,x
k
‑11)其中,[X0,X1,
…
,X
k
‑1]表示前k层对第1个月区域的SSTA提取的特征集合,H
k
表示三个连续操作:批量归一化、ReLU激活函数、3
×
3卷积的复合函数。3.根据权利要求1所述的基于递归门控卷积和注意力机制改进的ENSO时空预测方法,其特征在于,步骤S3包括如下子步骤:S301、构建MIMG
‑
Encoder
‑
Decoder架构:Encoder对时空序列的高维空间特征图进行编码,将其转换为向量形式,然后Decoder对该向量进行解码,还原为输出序列;在编码模块中,经过Dense Block模块和注意力机制提取特征后的输出作为ST
‑
LSTM的输入然后生成它的隐状态,接着进入三层MIMG堆叠模块,在解码模块中使用三层MIMG堆叠模块,所有输入序列共享Encoder的参数且所有输出序列共享Decoder的参数;S302、用Attention模块连接Dense Block和MIMG
‑
Encoder
‑
Decoder架构:将时空序列的高维空间特征F作为Attention模块的输入,F∈R
C*H*W
,再经过通道注意力模块一维卷积M
c
∈R
C*1*1
,将卷积结果乘原图,将通道注意力模块输出结果作为空间注意力模块的输入,进行空间注意力模块的二维卷积M
s
∈R
1*H*W
,再将输出结果与原图相乘,如下式:F'=M
c
(F)*FF"=M
s
(F')*F'。4.根据权利要求3所述的基于递归门控卷积和注意力机制改进的ENSO时空预测方法,其特征在于,步骤S302包括如下子步骤:S302
‑
1所述通道注意力模块,输入的时空序列的高维空间特征F先经过两个并行的
MaxPool层和AvgPool层,将特征图维度从C*H*W变为C*1*1,然后经过MLP模块,将通道数压缩为原来的1/r,再扩张到原通道数,经过ReLU激活函数得到两个激活后的结果,将这两个输出结果进行逐元素相加,再通过一个sigmoid激活函数得到CAM的输出结果,最后将这个输出结果乘原图,变回C*H*W的大小,如下式:其中,σ是激活函数,W0、W1是MLP的两个权重,是平均池化,是最大池化;S302
‑
2、空间注意力机制首先将通道注意力的输出M
c
(F)在通道维度平均池化和最大池化然后将产生的特征图进行拼接起来,然后在拼接后的特征图上,使用滤波器大小为7
×
7的卷积操作f
7x7
产生最终的空间注意力特征图M
s
(F),如下式:S302
‑
3、将空间注意力机制输出,即Nino3.4区域的SSTA在空间和通道维度上提取到的特征,作为ST
‑
LSTM下一个时间步的输入。5.根据权利要求3所述的基于递归门控卷积和注意力机制改进的ENSO时空预测方法,其特征在于,步骤S301具体为:所述MIMG模块,在MIM的基础上嵌入了递归门控卷积的残差形式rgConv,首先使用来获得一组投影特征和如下式:其中,rgConv的输入特征的维度为高
×
宽
×
通道数H
×
W
×
C,p、q表示投影特征,是执行通道混合的投影层,k表示层数,C0是第1阶的通道数,C
k
是第k+1阶的通道数,n
‑
1是最大阶数;然后递归地执行门控卷积,如下式:p
k+1
=f
k
(q
k
)
⊙
g
k
(p
k
)/α,k=0,1,
…
,n
‑
1其中,f
k
表示深度方向的卷积层,g
k
表示按不同顺序的匹配维度;k表示层数,p
k
、q
k
表示第k层的投影特征;将最后一个递归步骤的输出p
n<...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。