一种深度学习方法技术

技术编号:28037856 阅读:25 留言:0更新日期:2021-04-09 23:20
本发明专利技术公开了一种深度学习方法,首先通过截取安装在环境模拟器内部的监控视频获取野生动物的行为视频、行为声音以及状态视频;其次分别提取出行为视频的数据和行为声音的数据,同时根据状态视频得到野生动物的状态信息;之后建立有监督学习模型并对有监督学习模型进行训练,得到训练好的有监督学习模型;再将录制的野生动物的行为视频和行为声音输入到训练好的有监督学习模型中,得到输出的野生动物的状态信息。本发明专利技术通过对野生动物的行为进行监控,并将野生动物的行为视频的各个视频帧的特征值提取出来作为一个字符串,同时结合当时的环境参数和野生动物的叫声对模型进行训练得到训练好的模型,就可以快速准确的知道野生动物的状态。

【技术实现步骤摘要】
一种深度学习方法
本专利技术涉及数据处理领域,特别涉及一种深度学习方法。
技术介绍
野生动物是自然环境中必不可缺的一部分,野生动物的行为动作和状态都会影响到自然环境,在我们研究自然环境的时候,对野生动物的研究也是必不可少的一部分,我们通过对野生动物行为动作和状态的研究,就可以了解野生动物的生活习惯,从而推断出野生动物在自然环境中对自然环境的影响。但是在研究的时候,很多的环境研究员并不是专业研究野生动物的,因此不知道野生动物的行为动作所表示的状态,因此,就需要花费大量的时间对野生动物进行观察。一般情况下,研究员在研究的时候,都会将野生动物放在环境模拟器内对野生动物进行观察,环境模拟器就模拟出了野生动物的平时生存的环境,野生动物在环境模拟器中会做出各种动作,而研究员在研究的时候,就需要长时间的蹲守在环境模拟器旁,才能得到野生动物摸清楚各个动作行为做表示的状态,这样会非常的浪费研究的时间,从而降低研究的效率。
技术实现思路
本专利技术的目的是克服上述现有技术中存在的问题,提供一种深度学习方法,通过对野生动物的行为进行监控,并将野生动物的行为视频的各个视频帧的特征值提取出来作为一个字符串,同时结合当时的环境参数和野生动物的叫声对模型进行训练得到训练好的模型,就可以快速准确的知道野生动物的状态,从而节省研究的时间,提升研究的效率。为此,本专利技术提供了一种深度学习方法,包括如下步骤:通过截取安装在环境模拟器内部的监控视频获取野生动物的行为视频、行为声音以及状态视频;分别提取出所述行为视频的数据和所述行为声音的数据,同时根据所述状态视频得到野生动物的状态信息;建立有监督学习模型,并将已经得到的行为视频的数据和行为声音的数据作为所述有监督学习模型的输入,所述状态信息作为有监督学习模型的输出对所述有监督学习模型进行训练,得到训练好的有监督学习模型;将录制的野生动物的行为视频和行为声音输入到训练好的所述有监督学习模型中,得到输出的野生动物的状态信息;将输出的野生动物的状态信息与用户输入的状态数据进行对比,当不一致的时候,将录制的野生动物的行为视频和行为声音输入到无监督学习模型中。进一步,在所述有监督学习模型进行训练的时候,其输入还包括环境参数,所述环境参数为传感器在当前时刻所采集的环境模拟器内部环境参数,所述当前时刻为所述行为视频开始的时刻;所述有监督学习模型训练好之后,输入也包括所述环境参数。进一步,所述有监督学习模型所接收的输入为向量的形式,所述行为视频的数据和所述行为声音的数据均通过向量的形式进行表示。更进一步,所述行为视频的数据为X,则X={x1,x2,…,xn},其中n为正整数,n表示所述行为视频中第n个视频帧,xn表示行为视频中第n个视频帧的特征值。更进一步,所述行为声音的数据为S,则S={s1,s2,…,si},其中i为正整数,i表示所述行为声音中的第i个时刻,si表示所述行为声音中第i个时刻的声音参数。更进一步,所述声音参数为音强参数、音高参数以及音频参数的加权均值。进一步,在根据所述状态视频得到野生动物的状态信息的时候,包括如下步骤:将所述所述状态视频进行分解得到所述状态视频的各个视频帧;提取出关键视频帧,并根据关键视频帧的时间戳的时间顺序将提取出的关键视频帧进行排列;依次提取出每一个所述关键视频帧的特征值,组成特征序列;根据所述特征序列在数据库中进行查找,得到野生动物的状态信息;所述数据库用于存储状态信息以及其所对应的特征序列。进一步,所述无监督学习模型在设定的时间点用于修正所述有监督学习模型。本专利技术提供的一种深度学习方法,具有如下有益效果:1、本专利技术通过对野生动物的行为进行监控,并将野生动物的行为视频的各个视频帧的特征值提取出来作为一个字符串,同时结合当时的环境参数和野生动物的叫声对模型进行训练得到训练好的模型,就可以快速准确的知道野生动物的状态,从而节省研究的时间,提升研究的效率;2、本专利技术在对于野生动物的状态进行确定的时候,通过与数据库中设定的状态进行对比,得到野生动物的状态,数据库使用的是云端的数据库,根据野生动物的物种进行分类,这样就可以使得野生动物的状态更加的精准。附图说明图1为本专利技术提供的一种深度学习方法的整体流程示意框图;图2为本专利技术提供的一种深度学习方法在根据状态视频得到野生动物的状态信息的整体流程示意框图。具体实施方式下面结合附图,对本专利技术的一个具体实施方式进行详细描述,但应当理解本专利技术的保护范围并不受具体实施方式的限制。具体的,如图1所示,本专利技术实施例提供了一种深度学习方法,包括如下步骤:第一,通过截取安装在环境模拟器内部的监控视频获取野生动物的行为视频、行为声音以及状态视频;在上述步骤中,为了方便数据的采集和观察,设置环境模拟器,使得要研究观察的野生动物位于环境模拟器的内部,这样就和野生动物在自然环境中的动作以及状态是完全一致的了,此时,只要在环境模拟器中收集野生动物的行为视频、行为声音以及状态视频就可以达到相应的技术效果,对于环境模拟器,可以采用多种形式,使用目前现有技术中控制器和传感器进行搭建即可,对于空间可以选择较大的空间,使得野生动物有更多的活动空间,使得野生动物的行为表现更加的真实。第二,分别提取出所述行为视频的数据和所述行为声音的数据,同时根据所述状态视频得到野生动物的状态信息;上述步骤中,将行为视频和行为声音分别转化为数据的形式,一般的,数据的形式使用的是字符串的形式,在根据状态视频得到野生动物的状态信息,在得到野生动物的状态信息的时候,可以通过人工观看状态视频之后对状态信息进行录入,也可以通过将状态视频中的动作串提取出来,与状态信息进行比对,得到状态信息。第三,建立有监督学习模型,并将已经得到的行为视频的数据和行为声音的数据作为所述有监督学习模型的输入,所述状态信息作为有监督学习模型的输出对所述有监督学习模型进行训练,得到训练好的有监督学习模型;上述步骤中,所建立的有监督学习模型可以是任何符合条件的有监督学习模型,可以是回归模型,也可以是多层感知机模型,对此,本专利技术不做具体的限定,将上述已经得到的行为视频的数据和行为声音的数据作为所述有监督学习模型的输入,状态信息作为有监督学习模型的输出,这样就可以对模型进行训练,在训练有监督学习模型的时候,需要一定的数据量,对于训练有监督学习模型所需要的数据量的多少,由技术人员根据实际的情况自行的进行限定,最终,我们得到训练好的有监督学习模型。第四,将录制的野生动物的行为视频和行为声音输入到训练好的所述有监督学习模型中,得到输出的野生动物的状态信息;上述步骤中,我们将已经得到的有监督学习模型进行使用,在使用的时候,我们将录制的野生动物的行为视频和行为声音作为输入,这样有监督学习模型就会根据输入得到输出,即野生动物的状态信息,在该步骤中,本专利技术就可以支持研究人员手持输本文档来自技高网...

【技术保护点】
1.一种深度学习方法,其特征在于,包括如下步骤:/n通过截取安装在环境模拟器内部的监控视频获取野生动物的行为视频、行为声音以及状态视频;/n分别提取出所述行为视频的数据和所述行为声音的数据,同时根据所述状态视频得到野生动物的状态信息;/n建立有监督学习模型,并将已经得到的行为视频的数据和行为声音的数据作为所述有监督学习模型的输入,所述状态信息作为有监督学习模型的输出对所述有监督学习模型进行训练,得到训练好的有监督学习模型;/n将录制的野生动物的行为视频和行为声音输入到训练好的所述有监督学习模型中,得到输出的野生动物的状态信息;/n将输出的野生动物的状态信息与用户输入的状态数据进行对比,当不一致的时候,将录制的野生动物的行为视频和行为声音输入到无监督学习模型中。/n

【技术特征摘要】
1.一种深度学习方法,其特征在于,包括如下步骤:
通过截取安装在环境模拟器内部的监控视频获取野生动物的行为视频、行为声音以及状态视频;
分别提取出所述行为视频的数据和所述行为声音的数据,同时根据所述状态视频得到野生动物的状态信息;
建立有监督学习模型,并将已经得到的行为视频的数据和行为声音的数据作为所述有监督学习模型的输入,所述状态信息作为有监督学习模型的输出对所述有监督学习模型进行训练,得到训练好的有监督学习模型;
将录制的野生动物的行为视频和行为声音输入到训练好的所述有监督学习模型中,得到输出的野生动物的状态信息;
将输出的野生动物的状态信息与用户输入的状态数据进行对比,当不一致的时候,将录制的野生动物的行为视频和行为声音输入到无监督学习模型中。


2.如权利要求1所述的一种深度学习方法,其特征在于,在所述有监督学习模型进行训练的时候,其输入还包括环境参数,所述环境参数为传感器在当前时刻所采集的环境模拟器内部环境参数,所述当前时刻为所述行为视频开始的时刻;所述有监督学习模型训练好之后,输入也包括所述环境参数。


3.如权利要求1所述的一种深度学习方法,其特征在于,所述有监督学习模型所接收的输入为向量的形式,所述行为视频的数据和所述行为声音的数据均通过向量的形式进行表示。

<...

【专利技术属性】
技术研发人员:赵嘉黄学平付雪峰侯家振韩龙哲
申请(专利权)人:南昌工程学院
类型:发明
国别省市:江西;36

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1