基于循环动态卷积神经网络的雷达回波外推模型训练方法技术

技术编号:19512170 阅读:43 留言:0更新日期:2018-11-21 08:18
本发明专利技术公开了基于循环动态卷积神经网络的雷达回波外推模型训练方法,包括:RDCNN离线训练:对给定的雷达回波图像,通过数据预处理得到训练样本集,初始化RDCNN模型,并利用训练样本集训练RDCNN,经过网络前向传播计算输出值、反向传播更新网络参数的过程使RDCNN收敛。

【技术实现步骤摘要】
基于循环动态卷积神经网络的雷达回波外推模型训练方法
本专利技术属于大气探测中地面气象观测
,尤其涉及基于循环动态卷积神经网络的雷达回波外推模型训练方法。
技术介绍
临近预报主要指0~3小时的高时空分辨率的天气预报,主要预报对象包括强降水、大风、冰雹等灾害性天气。目前,很多预报系统都采用数值预报模式,但是由于数值预报存在预报起转延迟(spin-up),其短时临近预报能力有限。新一代多普勒天气雷达具有很高的灵敏度和分辨率,其数据资料的空间分辨率能够达到200~1000m,时间分辨率能够达到2~15min。此外,多普勒天气雷达还具有合理的工作模式、全面的状态监控和故障警报、先进的实时标校系统和丰富的雷达气象产品算法,能够大大提高短时临近预报的可靠性。如今,新一代多普勒天气雷达已经成为临近预报的最有效工具之一,利用多普勒天气雷达进行临近预报主要基于雷达回波外推技术,即根据当前时刻雷达观测结果,推测雷达回波未来的位置和强度,以实现对强对流系统的跟踪预报。传统的的雷达回波外推方法是质心跟踪法和基于最大相关系数的交叉相关法(TrackingRadarEchoesbyCorrelation,TREC),但是传统方法都存在一定的不足,质心跟踪法仅适用于回波较强、范围较小的风暴单体,对于大范围降水的预报不可靠;TREC一般将回波视为线性变化的,而现实情况中回波变化更为复杂,同时此类方法易受矢量场中的无序矢量干扰。此外,现有的方法对雷达资料的利用率低,而历史雷达资料包含当地天气系统变化的重要特征,具有很高的研究价值。为提高雷达回波外推的时效性,并从大量的历史雷达资料中研究雷达回波的变化规律,将机器学习方法引入雷达回波外推中。卷积神经网络(ConvolutionalNeuralNetworks,CNNs)作为深度学习的重要分支,广泛应用于图像处理,模式识别等领域。该网络最大的特点在于采用局部连接、权值共享、下采样的方法,对输入图像的形变、平移和翻转具有较强的适应性。针对雷达回波图像之间存在的强时间相关性,设计基于输入的循环动态卷积神经网络,该网络能够根据输入的雷达回波图动态的变化权值参数,进而预测外推图像。利用历史雷达资料训练循环动态卷积神经网络,使网络更加充分地提取回波特征,学习回波变化规律,对于提高雷达回波外推准确性,优化临近预报效果具有重要意义。
技术实现思路
专利技术目的:本专利技术所要解决的技术问题是针对现有的雷达回波外推方法的外推时效短,对雷达资料利用率不足,提出了一种基于循环动态卷积神经网络(RDCNN)的雷达回波外推方法,实现对雷达回波强度等高平面显示CAPPI(ConstantAltitudePlanPositionIndicator,CAPPI)图像的外推预测,包括以下步骤:步骤1,数据预处理:输入训练图像集,对训练图像集中的每一幅图像进行规范化处理,将每一幅图像转化为280×280的灰度图像,得到图像集合,对灰度图像集合进行划分,构造包含TrainsetSize组样本的训练样本集;步骤2,初始化RDCNN:设计RDCNN结构,构造用于生成概率向量的循环动态子网络子网络RDSN和用于预测未来时刻雷达回波的概率预测层PPL,为离线训练阶段提供RDCNN的初始化模型;步骤3,初始化RDCNN的训练参数:令网络学习率λ=0.0001,训练阶段每次输入的样本数量BatchSize=10,训练样本集的最大批训练次数当前批训练次数BatchNum=1,网络训练的最大迭代次数IterationMax=40,当前迭代次数IterationNum=1;步骤4,读取训练样本:采用批训练的方式,每次训练从步骤1获得的训练样本集中读取BatchSize组训练样本,每组训练样本包含5幅图像{x1,x2,x3,x4,y},其中{x1,x2,x3,x4}作为输入图像序列,y为对应的对照标签;步骤5,前向传播:在RDSN中提取输入图像序列的特征,得到水平概率向量HPV和垂直概率向量VPV;在概率预测层中,将输入图像序列中的最后一幅图像依次与VPV、HPV相卷积,得到前向传播的输出预测图像;步骤6,反向传播:在PPL中求得概率向量的误差项,再根据概率向量的误差项从后至前逐层计算RDSN中各个网络层的误差项,进而计算各个网络层中误差项对权值参数和偏置参数的梯度,利用得到的梯度更新网络参数;步骤7,离线训练阶段控制:对离线神经网络训练阶段进行整体控制,分为以下三种情况:若训练样本集中仍存在未使用过的训练样本,即BatchNum<BatchMax,则返回步骤4继续读取BatchSize组训练样本,进行网络训练;若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且当前网络迭代次数小于最大迭代次数,即IterationNum<IterationMax,则令BatchNum=1,返回步骤4继续读取BatchSize组训练样本,进行网络训练;若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且网络迭代次数达到最大迭代次数,即IterationNum=IterationMax,则结束RDCNN离线训练阶段,得到收敛的RDCNN模型。步骤1包括以下步骤:步骤1-1,采样:输入训练图像集,训练图像集中的图像按时间顺序排列,并且等时间间隔分布,时间间隔为6分钟,共包含NTrain幅图像,通过如下公式确定TrainsetSize:其中,Mod(NTrain,4)表示NTrain对4取模,表示不大于的最大整数,求得TrainsetSize后,通过采样保留训练图像集中前4×TrainsetSize+1幅图像,采样时通过删除训练图像集中最后的图像使图像数量满足要求;步骤1-2,规范化图像:对采样得到的图像进行图像变换,归一化操作,将原始分辨率为2000×2000的彩色图像转换成分辨率为280×280的灰度图像;步骤1-3,构造训练样本集:利用步骤1-2获得的灰度图像构造训练样本集,将灰度图像集中每四个相邻的图像,即第{4N+1,4N+2,4N+3,4N+4}幅图像作为一组输入序列,第[4×(N+1)+1]幅图像经过裁剪,保留中央分辨率为240×240的部分作为对应样本的对照标签,对于第N组样本其构造方式如下:上式中,G4N+1表示灰度图像集中的第4N+1幅图像,N为正整数,并有N∈[0,TrainsetSize-1],Crop(·)表示裁剪操作,裁剪后保留原图像中央大小为240×240的部分,最终得到包含TrainsetSize组训练样本的训练样本集。步骤1-2包括以下步骤:步骤1-2-1,图像转化:将步骤1-1采样得到的图像转化为灰度图像,通过裁剪保留原始图像中央分辨率为560×560的部分,将裁剪后的图像分辨率压缩为280×280,得到分辨率为280×280的灰度图;步骤1-2-2,数据归一化:将步骤1-2-1中获得的灰度图中的每一个像素点的值从[0~255]映射到[0~1]。步骤2包括以下步骤:步骤2-1,构造循环动态子网络RDSN:子网络由10个网络层构成,从前至后依次为卷积层C1、下采样层S1、隐含层H1、卷积层C2、下采样层S2、隐含层H2、卷积层C3、下采样层S3、隐含层H3、卷积层C4、下采样本文档来自技高网
...

【技术保护点】
1.基于循环动态卷积神经网络的雷达回波外推模型训练方法,其特征在于,包括以下步骤:步骤1,数据预处理:输入训练图像集,对训练图像集中的每一幅图像进行规范化处理,将每一幅图像转化为280×280的灰度图像,得到图像集合,对灰度图像集合进行划分,构造包含TrainsetSize组样本的训练样本集;步骤2,初始化RDCNN:设计RDCNN结构,构造用于生成概率向量的循环动态子网络子网络RDSN和用于预测未来时刻雷达回波的概率预测层PPL,为离线训练阶段提供RDCNN的初始化模型;步骤3,初始化RDCNN的训练参数:令网络学习率λ=0.0001,训练阶段每次输入的样本数量BatchSize=10,训练样本集的最大批训练次数

【技术特征摘要】
1.基于循环动态卷积神经网络的雷达回波外推模型训练方法,其特征在于,包括以下步骤:步骤1,数据预处理:输入训练图像集,对训练图像集中的每一幅图像进行规范化处理,将每一幅图像转化为280×280的灰度图像,得到图像集合,对灰度图像集合进行划分,构造包含TrainsetSize组样本的训练样本集;步骤2,初始化RDCNN:设计RDCNN结构,构造用于生成概率向量的循环动态子网络子网络RDSN和用于预测未来时刻雷达回波的概率预测层PPL,为离线训练阶段提供RDCNN的初始化模型;步骤3,初始化RDCNN的训练参数:令网络学习率λ=0.0001,训练阶段每次输入的样本数量BatchSize=10,训练样本集的最大批训练次数当前批训练次数BatchNum=1,网络训练的最大迭代次数IterationMax=40,当前迭代次数IterationNum=1;步骤4,读取训练样本:采用批训练的方式,每次训练从步骤1获得的训练样本集中读取BatchSize组训练样本,每组训练样本包含5幅图像{x1,x2,x3,x4,y},其中{x1,x2,x3,x4}作为输入图像序列,y为对应的对照标签;步骤5,前向传播:在RDSN中提取输入图像序列的特征,得到水平概率向量HPV和垂直概率向量VPV;在概率预测层中,将输入图像序列中的最后一幅图像依次与VPV、HPV相卷积,得到前向传播的输出预测图像;步骤6,反向传播:在PPL中求得概率向量的误差项,再根据概率向量的误差项从后至前逐层计算RDSN中各个网络层的误差项,进而计算各个网络层中误差项对权值参数和偏置参数的梯度,利用得到的梯度更新网络参数;步骤7,离线训练阶段控制:对离线神经网络训练阶段进行整体控制,分为以下三种情况:若训练样本集中仍存在未使用过的训练样本,即BatchNum<BatchMax,则返回步骤4继续读取BatchSize组训练样本,进行网络训练;若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且当前网络迭代次数小于最大迭代次数,即IterationNum<IterationMax,则令BatchNum=1,返回步骤4继续读取BatchSize组训练样本,进行网络训练;若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且网络迭代次数达到最大迭代次数,即IterationNum=IterationMax,则结束RDCNN离线训练阶段,得到收敛的RDCNN模型。2.根据权利要求1所述的方法,其特征在于,步骤1包括以下步骤:步骤1-1,采样:输入训练图像集,训练图像集中的图像按时间顺序排列,并且等时间间隔分布,时间间隔为6分钟,共包含NTrain幅图像,通过如下公式确定TrainsetSize:其中,Mod(NTrain,4)表示NTrain对4取模,表示不大于的最大整数,求得TrainsetSize后,通过采样保留训练图像集中前4×TrainsetSize+1幅图像,采样时通过删除训练图像集中最后的图像使图像数量满足要求;步骤1-2,规范化图像:对采样得到的图像进行图像变换,归一化操作,将原始分辨率为2000×2000的彩色图像转换成分辨率为280×280的灰度图像;步骤1-3,构造训练样本集:利用步骤1-2获得的灰度图像构造训练样本集,将灰度图像集中每四个相邻的图像,即第{4N+1,4N+2,4N+3,4N+4}幅图像作为一组输入序列,第[4×(N+1)+1]幅图像经过裁剪,保留中央分辨率为240×240的部分作为对应样本的对照标签,对于第N组样本其构造方式如下:上式中,G4N+1表示灰度图像集中的第4N+1幅图像,N为正整数,并有N∈[0,TrainsetSize-1],Crop(·)表示裁剪操作,裁剪后保留原图像中央大小为240×240的部分,最终得到包含TrainsetSize组训练样本的训练样本集。3.根据权利要求2所述的方法,其特征在于,步骤1-2包括以下步骤:步骤1-2-1,图像转化:将步骤1-1采样得到的图像转化为灰度图像,通过裁剪保留原始图像中央分辨率为560×560的部分,将裁剪后的图像分辨率压缩为280×280,得到分辨率为280×280的灰度图;步骤1-2-2,数据归一化:将步骤1-2-1中获得的灰度图中的每一个像素点的值从[0~255]映射到[0~1]。4.根据权利要求3所述的方法,其特征在于,步骤2包括以下步骤:步骤2-1,构造循环动态子网络RDSN:子网络由10个网络层构成,从前至后依次为卷积层C1、下采样层S1、隐含层H1、卷积层C2、下采样层S2、隐含层H2、卷积层C3、下采样层S3、隐含层H3、卷积层C4、下采样层S4、隐含层H4、卷积层C5、隐含层H5、以及分类器层F1;步骤2-2,构造概率预测层PPL:概率预测层中构造动态卷积层DC1和动态卷积层DC2,将RDSN输出的垂直概率向量VPV作为动态卷积层DC1的卷积核,水平概率向量HPV作为动态卷积层DC2的卷积核。5.根据权利要求4所述的方法,其特征在于,步骤2-1包括以下步骤:步骤2-1-1,构造卷积层:对于卷积层lC,lC∈{C1,C2,C3,C4,C5},确定以下内容:卷积层的输出特征图数量卷积核以及偏置参数对于卷积核,需要确定卷积核的宽度卷积核的数量该值为卷积层输入与输出特征图数量的乘积,并根据Xavier初始化方法构造卷积核;对于偏置参数,其数量与该层的输出特征图数量相同;lC层的输出特征图宽度为的值由卷积层lC的输入特征图分辨率和卷积核的宽度共同决定,即表示卷积层lC的上一层卷积层的输出特征图宽度;对于卷积层C1,令C1层的输出特征图数量OutputMapsC1=12,C1层输出特征图的宽度OutputSizeC1=272,C1层卷积核宽度KernelSizeC1=9,C1层偏置参数biasC1均初始化为零,C1层的卷积核kC1的数量KernelNumberC1=48,卷积核中每一个参数的初始值为rand(·)用于生成随机数;对于卷积层C2,令C2层输出特征图数量OutputMapsC2=32,C2层输出特征图的宽度OutputSizeC2=128,C2层卷积核宽度KernelSizeC2=9,C2层偏置参数均初始化为零,C2层的卷积核kC2的数量KernelNumberC2=384,卷积核中每一个参数的初始值为对于卷积层C3,令C3层输出特征图数量OutputMapsC3=32,C3层输出特征图的宽度OutputSizeC3=56,C3层卷积核宽度KernelSizeC3=9,C3层偏置参数均初始化为零,C3层的卷积核kC3的数量KernelNumberC3=1024,卷积核中每一个参数的初始值为对于卷积层C4,令C4层输出特征图数量OutputMapsC4=32,C4层输出特征图的宽度OutputSizeC4=20,C4层卷积核宽度KernelSizeC4=9,C4层偏置参数均初始化为零,C4层的卷积核kC4的数量KernelNumberC4=1024,卷积核中每一个参数的初始值为对于卷积层C5,令C5层输出特征图数量OutputMapsC5=32,C5层输出特征图的宽度OutputSizeC5=4,C5层卷积核宽度KernelSizeC5=7,C5层偏置参数均初始化为零,C5层的卷积核kC5的数量KernelNumberC5=1024,卷积核中每一个参数的初始值为步骤2-1-2,构造隐含层:对于隐含层lH,lH∈{H1,H2,H3,H4,H5},确定以下内容:隐含层的输出特征图数量卷积核以及偏置参数对于卷积核,需要确定卷积核的宽度卷积核的数量其值为隐含层输入与输出特征图数量的乘积,并根据Xavier初始化方法构造卷积核;对于偏置参数,其数量与隐含层的输出特征图数量相同;lH层的输出特征图宽度为与对应卷积层输入特征图的宽度相一致;对于隐含层H1,令H1层的输出特征图数量OutputMapsH1=4,H1层输出特征图的宽度OutputSizeH1=280,H1层卷积核宽度KernelSizeH1=9,H1层偏置参数biasH1初始化为零,H1层的卷积核kH1的数量KernelNumberH1=48,卷积核中每一个参数的初始值为rand(·)用于生成随机数;对于隐含层H2,令H2层输出特征图数量OutputMapsH2=8,H2层输出特征图的宽度OutputSizeH2=136,H2层卷积核宽度KernelSizeH2=9,H2层偏置参数均初始化为零,H2层的卷积核kH2的数量KernelNumberH2=256,卷积核中每一个参数的初始值为对于隐含层H3,令H3层输出特征图数量OutputMapsH3=8,H3层输出特征图的宽度OutputSizeH3=64,H3层卷积核宽度KernelSizeH3=9,H3层偏置参数均初始化为零,H3层的卷积核kH3的数量KernelNumberH3=256,卷积核中每一个参数的初始值为对于隐含层H4,令H4层输出特征图数量OutputMapsH4=8,H4层输出特征图的宽度OutputSizeH4=28,H4层卷积核宽度KernelSizeH4=9,H4层偏置参数均初始化为零,H4层的卷积核kH4的数量KernelNumberH4=256,卷积核中每一个参数的初始值为对于隐含层H5,令H5层输出特征图数量OutputMapsH5=8,H5层输出特征图的宽度OutputSizeH5=10,H5层偏置参数初始化为零,H5层包含256个权值参数kH5,每一个权值参数的初始值为步骤2-1-3,构造下采样层:下采样层中不包含需要训练的参数,将下采样层S1、S2、S3和S4的采样核均初始化为对于下采样层lS,lS∈{S1,S2,S3,S4},其输出特征图数量与其上一层的卷积层的输出特征图数量保持一致,输出特征图宽度为其上一层的卷积层的输出特征图宽度的1/2,公式表达如下:步骤2-1-4,构造分类器层:分类器层由一个全连接层F1构成,F1层的权值参数为水平权值参数矩阵WH和垂直权值参数矩阵WV,大小均为41×512,令权值参数矩阵中的每一个参数的初始值为偏置参数为水平偏置参数BH和垂直偏置参数BV,均初始化为41×1的一维零向量。6.根据权利要求4所述的方法,其特征在于,步骤5包括以下步骤:步骤5-1,RDSN计算概率向量:在子网络中通过卷积层和下采样层的交替处理提取输入的图像序列特征,在分类器层中通过Softmax函数处理,得到水平概率向量HPV和垂直概率向量VPV;步骤5-2,PPL输出预测图像:步骤5-1得到的HPV和VPV作为概率预测层的卷积核,将输入图像序列中的最后一幅图像依次与VPV、HPV相卷积,得到前向传播的输出预测图像。7.根据权利要求5所述的方法,其特征在于,步骤5-1包括以下步骤:步骤5-1-1,判断网络层类型:用l表示当前RDSN中的网络层,l的取值依次为{H1,C1,S1,H2,C2,S2,H3,C3,S3,H4,C4,S4,H5,C5,F1},其初始值为H1;判断网络层l的类型,若l∈{H1,H2,H3,H4,H5},则l为隐含层,执行步骤5-1-2;若l∈{C1,C2,C3,C4,C5},则l为卷积层,执行步骤1-5-1-3;若l∈{S1,S2,S3,S4},则l为下采样层,执行步骤5-1-4;若l=F1,则l为分类器层,执行步骤5-1-5;训练过程中将本次训练卷积层的输出特征图记为aC',其中C∈{C1,C2,C3,C4,C5},aC'的初始值为零矩阵;步骤5-1-2,处理隐含层:此时有l=lH,lH∈{H1,H2,H3,H4,H5},分为两种情况:当lH∈{H1,H2,H3,H4}时,首先计算lH层的第j个输出特征图若lH=H1,则C=C1,通过零像素填充将aC'中对应的特征图宽度拓展至再将其与该层的对应卷积核相卷积,将卷积结果求和,求和结果加上lH层的第j个偏置参数经过ReLU激活函数处理,得到lH层的第j个输出特征图计算公式如下所示:上式中,Expand_Zero(·)表示零扩充函数,为lH层的第i个输入特征图与第j个输出特征图相对应的卷积核,为lH层的第j个偏置,nh为当前隐含层的输入特征图个数,表示lH层的第i个输入特征图,的取值由输入特征图的宽度和卷积核的大小决定,并有当lH=H5时,首先计算H5层的第j个输出特征图通过零像素填充将aC5'的特征图分辨率拓展至10×10,再将其与该层的对应权值参数相乘,将计算结果求和,求和结果加上H5层第j个偏置参数经过ReLU激活函数处理,得到计算公式如下所示:上式中,为H5层的第i个输入特征图与第j个输出特征图相对应的权值参数;依次计算lH层所有的输出特征图,得到lH层...

【专利技术属性】
技术研发人员:李骞施恩马强马烁
申请(专利权)人:中国人民解放军国防科技大学
类型:发明
国别省市:湖南,43

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1