The invention discloses an efficient LSTM design method which can utilize the event duration, and proposes a sequence coding method based on the event duration, in which the event and its duration information contained in the sequence data are used as the input of the LSTM network at various times, and the memory updating method of the LSTM hidden layer neurons is used to update the memory of the LSTM hidden layer. Neurons can memorize the duration of events and reasonably and efficiently calculate neurons. Aiming at the problem that the existing cyclic neural network LSTM units can not effectively utilize the duration information of events in a long sequence, which leads to computational redundancy and high training time overhead, an efficient LSTM structure is designed, which can utilize the duration of events, including sequence coding method based on the duration of events and high efficiency. The memory updating method of LSTM hidden layer neurons, which simulates the stress mode of biological neurons to external excitation, effectively reduces the redundant calculation of LSTM hidden layer neurons while modeling the event duration, and improves the training efficiency of LSTM, thus guaranteeing the effectiveness and practicality of LSTM model in processing long sequences. Sex.
【技术实现步骤摘要】
一种能利用事件持续时间的高效LSTM设计方法
本专利技术涉及人工智能深度学习领域,尤其涉及一种能利用事件持续时间的高效LSTM设计方法。
技术介绍
近年来,随着多媒体技术、社交网络的快速发展,多媒体数据(图像、视频)呈爆发式的增长,人工实现海量数据的分类、标注已经变得不现实,需要借助人工智能技术实现多媒体数据的智能分析、理解。深度学习技术在机器视觉、语音识别、自然语言处理等领域取得了很大的成功。其中,循环神经网络(RNN)在网络结构中加入了记忆单元,使得模型能够充分利用上下文信息,很好地处理序列化问题。但是传统的RNN存在梯度消失与梯度爆炸的问题,在较长序列的处理方面不能取得很好的效果;LSTM神经网络作为RNN的一种变体,不仅能够利用上下文的信息,并且还能通过其自身的门控机制获取更长的历史信息,解决了传统RNN面临的梯度消失的问题。通常RNN/LSTM处理序列化数据时,不考虑输入状态的持续时间,在各输入时刻以相同的方式计算隐藏层神经元的单元状态,即神经元的记忆,没有考虑到这种处理方式在网络输入状态持续不变的情况下会造成大量冗余的隐藏层计算。当需要处理的序列长度较长时,这一问题将更加突出。隐藏层状态更新会涉及到大量的矩阵运算,导致循环神经网络的训练时间过长,训练效率降低。当序列中包含多个事件时,利用事件具有时间持续的特点,可以将事件持续时间属性作为LSTM建模和隐藏层神经元计算的一个重要考虑因素,也是提高RNN/LSTM训练效率的一个关键。
技术实现思路
本专利技术的目的在于提供一种能利用事件持续时间的高效LSTM设计方法,以解决现有LSTM无法有效利用序列中 ...
【技术保护点】
1.一种能利用事件持续时间的高效LSTM设计方法,其特征在于,包括以下步骤:步骤1,使用基于事件持续时间的序列编码方法,将序列数据中所包含的事件及其持续时间信息作为LSTM网络各个时刻的输入;步骤2,通过高效LSTM隐藏层神经元记忆更新方法,使神经元能够记忆事件的持续时间,合理高效地进行神经元的计算。
【技术特征摘要】
1.一种能利用事件持续时间的高效LSTM设计方法,其特征在于,包括以下步骤:步骤1,使用基于事件持续时间的序列编码方法,将序列数据中所包含的事件及其持续时间信息作为LSTM网络各个时刻的输入;步骤2,通过高效LSTM隐藏层神经元记忆更新方法,使神经元能够记忆事件的持续时间,合理高效地进行神经元的计算。2.根据权利要求1所述的一种能利用事件持续时间的高效LSTM设计方法,其特征在于,所述步骤1中,获得各时刻LSTM网络的输入的方法包括以下步骤:步骤1.1,每隔时间间隔α对序列进行采样并由此构建输入高效LSTM的序列编码;步骤1.2,使用N维向量xt表示高效LSTM在输入时刻t的输入编码,即编码向量,其中N为所有事件的种类,向量xt中的每一元素分别对应一种事件;步骤1.3,在输入时刻t,判断对应的采样时刻是否有事件j发生,若有,则向量xt中的第j位置置为1;若无,向量xt中的第j位置置为0;由此得到的编码向量xt,即为各时刻LSTM网络的输入。3.根据权利要求1所述的一种能利用事件持续时间的高效LSTM设计方法,其特征在于:所述步骤2中,高效LSTM隐藏层神经元记忆更新方法包括以下步骤:步骤2.1,确定LSTM单元中的掩门maskgate和时长duration,maskgate的开、关由网络各时刻输入的变化情况决定,若某一时刻的编码向量xt与上一时刻xt-1不同,此时隐藏层神经元及时更新记忆,maskgate打开;若编码向量xt与xt-1相同,此时神经元记忆无需更新,maskgate关闭,进入保持阶段;每当记忆保持的持续时间增加一个时刻,duration的值增1;步骤2.2,根据各时刻的maskgate和duration,使用门控选择更新方法计算隐藏层神经元记忆和输出。4.根据权...
【专利技术属性】
技术研发人员:牛德姣,刘亚文,蔡涛,夏政,刘天泉,詹毕晟,詹永照,梁军,
申请(专利权)人:江苏大学,
类型:发明
国别省市:江苏,32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。