一种采用人工智能预测追踪的视频监视云台及其追踪方法技术

技术编号:19635482 阅读:28 留言:0更新日期:2018-12-01 16:08
本申请提出了一种采用人工智能预测追踪的视频监视云台及其预测追踪方法,可以分析出不同场景视频画面在场景模式方面的差异,进而针对某一种场景模式,基于人工智能的机器学习方法,确定其中重点目标的状态特征,从而训练获得特定场景模式下对重点目标的识别与追踪标准,在多种运动目标的场景之下可以基于每个运动目标与场景模式与采集目的的关联性提取重要目标,从而根据该重要目标的运动实现云台的预测追踪。

A video surveillance platform based on artificial intelligence prediction tracking and its tracking method

This application proposes a video surveillance platform based on artificial intelligence prediction tracking and its prediction tracking method, which can analyze the differences of scene patterns of different scene video pictures. Then, aiming at a certain scene pattern, the machine learning method based on artificial intelligence is used to determine the state characteristics of key targets. The training obtains the recognition and tracking criteria for key targets in specific scenario mode. In the scenarios of multiple moving targets, important targets can be extracted based on the correlation between each moving target and scene mode and acquisition purpose, so that the prediction and tracking of the platform can be realized according to the movement of the important target.

【技术实现步骤摘要】
一种采用人工智能预测追踪的视频监视云台及其追踪方法
本申请涉及应用于智慧城市的视频监控
,尤其涉及一种采用人工智能预测追踪的视频监视云台及其追踪方法。
技术介绍
智慧城市是运用物联网技术将智慧楼宇、智慧社区、智慧街道和智慧家庭连通为一体,形成全面覆盖、精确采集、智能分析的数字化信息体系。视频信息的采集与应用在智慧城市中发挥着不可或缺的重要作用,是实现区域安保监控、人脸身份识别、交通信息提取等智慧城市重要功能的前端基础。在公共空间,视频信息的采集以视频监视摄像机为主要的前端设施。视频监视摄像机一般由摄像机和监视云台两部分共同组成。其中,监视云台用于在结构上承载摄像机,并且携带摄像机转动以调节拍摄的方向和俯仰角度,从而使一台摄像机利用其有限的拍摄视野能够覆盖更大的预定空间范围。锁定特定的运动对象并带动摄像机对该对象进行追踪拍摄,是监视云台的核心功能。为了保证适当的曝光量以及清晰的聚焦,在视频信息采集过程中一般要求主要的拍摄对象处于拍摄视野的中央区域。因此,当主要的拍摄对象是一个运动对象时,监视云台要能够跟随该运动对象而带动摄像机调节拍摄方向和俯仰角度,从而将该运动对象始终保持在拍摄视野的中央区域附近。为了实现上述追踪拍摄的功能,监视云台需要从摄像机拍摄的连续的实时画面帧当中提取出运动对象,根据该运动对象的在各帧实时画面帧中位置的变化,当该运动对象偏离拍摄视野的中央区域时,适应性带动摄像机进行调节,使得该运动对象回复至拍摄视野的中央区域。为了改善追踪拍摄的滞后性,监视云台还可以引入预测机制,由在先的若干帧实时画面帧当中运动对象的位置变化规律,提取该对象的运动方向和运动速度,进而按照该运动方向和速度预测后续的实时画面帧当中该运动对象的预计位置偏离,并参照预测提前调节监视云台,使得运动对象在后续的实时画面帧中回复至拍摄视野的中央区域。然而,在智慧城市的真实应用之中,视频信息采集的公共空间场景结构往往是比较复杂的,该场景内通常存在较多数量的对象,其中也会包括较多数量的运动对象。因此,对于监视云台来说,如何在复杂、多运动对象的场景结构下实现准确的预测追踪也是一个亟待解决的问题。例如,在场景内存在多个运动目标,且各个运动目标的运动方向和运动速度存在差异的情况下,要求监视云台能够基于视频信息采集的预定目的,从中选取和锁定适当的运动目标,从而携带摄像机进行追踪拍摄。现有技术中,在场景具有多个运动目标的情况下,监视云台所采取的追踪策略一般包括:锁定拍摄场景当中最先出现的运动目标进行追踪,直至该运动目标离开拍摄场景后,则更新至场景内现存运动目标中最早出现的予以追踪;或者,每次均锁定场景中最新出现的运动目标进行追踪;或者,在拍摄场景中设置一个关键区域,对最接近该关键区域的运动目标实施追踪;或者,在拍摄场景中选取占据画面比例最大的运动目标实施追踪。然而,这些追踪策略往往并不能与视频信息采集的场景特征以及视频信息采集的预定目的完全匹配。例如,根据视频信息采集的场景特征以及采集该场景视频信息的目的,应选取该场景特征下与采集目的具有最大重要度和关联度的运动目标进行追踪,而不完全受到该运动目标处于场景中的任何区域、该运动目标的画面大小或者在场景中出现的时机早晚的影响。但是,由于视频场景的采集目的与场景特征之间的关联往往并非是基于显式的一些固定规则就能够定义的,而采集场景的特征也难以预先描述,并且视频采集过程中的追踪策略需要结合场景的改变而进行动态调整,因此,难以用上述现有技术中的简易、明确、静态的追踪规则达到在任何场景特征下都锁定与采集目的具有最大重要度和关联度的运动目标实施跟踪。
技术实现思路
有鉴于此,本申请的目的在于提出一种采用人工智能预测追踪的视频监视云台及其追踪方法。本专利技术利用人工智能方法实现视频信息采集过程中对场景特征的识别,并且学习各种场景模式之下对追踪锁定的运动目标的选择策略,从而实现对具有最大重要度和关联度的运动目标的自动提取和预测追踪。本申请提供一种采用人工智能预测追踪的视频监视云台,其特征在于,包括:场景模式识别单元、目标区域智能学习单元、追踪目标提取单元、云台驱动单元;其中所述场景模式识别单元用于从视频监视云台的摄像机拍摄的场景视频画面当中提取每个场景当中包含的目标,并且量化目标状态生成状态值;根据目标的状态值,判断两幅相邻的场景视频画面是否是相同的场景模式,对相同场景模式的场景视频画面标注同一类场景模式标记;目标区域智能学习单元,用于通过一定数量的样本,学习每一种场景模式下重要运动目标的状态值特征;追踪目标提取单元,用于目标区域智能学习单元的学习结果,根据从当前场景视频画面识别每一个运动目标的状态值,判断该运动目标是否属于重要目标,当结果表明当前场景视频画面中的一个运动目标属于重要目标,则将该运动目标的画面位置坐标提供给云台驱动单元;云台驱动单元,从追踪目标提取单元获得当前场景视频画面中的重要目标的画面位置坐标,从而按照该画面位置坐标锁定当前场景视频画面当中的重要目标,进行追踪拍摄。优选的是,所述场景模式识别单元比对相邻两幅场景视频画面中是否包含相同目标,以及相同目标占每幅场景视频画面中全部目标的比例是否低于第一阈值;如果两幅场景视频画面中至少一幅的相同目标百分比低于该第一阈值,则判定这两幅场景视频画面分别属于不同的场景模式;如果相邻两幅场景视频画面中包含的相同目标占全部目标的百分比均大于等于第一阈值,则进而利用两幅画面中相同目标各自的状态值,计算这两幅场景视频画面中全部相同目标的状态整体差异度;若状态整体差异度大于等于第二阈值,则判定这两幅场景视频画面具有不同的场景模式,若状态整体差异度低于第二阈值,则判定这两幅场景视频画面具有相同的场景模式。优选的是,目标区域智能学习单元为每一种场景模式提取一定数量的场景视频画面作为样本画面,并且人工对这些样本画面当中应锁定追踪的运动目标区域进行识别,确定每一幅样本画面当中属于重要目标的运动目标;确定该重要目标在样本画面中的状态值;将每一种场景模式的全部样本画面中的重要目标的状态值执行训练,获得训练好的重要目标识别SVM分类向量机;针对每一种场景模式的全部样本画面,提取样本画面包含的全部运动目标以及每一个运动目标的状态值,获得目标状态值列表,将每一种场景模式的全部样本画面的目标状态列表进行训练,获得训练好的场景模式识别SVM分类向量机。优选的是,所述追踪目标提取单元用于将当前场景视频画面的运动目标状态值列表代入经训练之后的各个场景模式识别SVM分类向量机,从而判断当前场景视频画面属于哪一种场景模式;进而,将该场景视频画面中每一个运动目标的状态值代入训练好的该场景模式对应的重要目标识别SVM分类向量机,从而识别每一个运动目标是否属于重要目标,当分类结果表明当前场景视频画面中的一个运动目标属于重要目标。优选的是,所述云台驱动单元分析该重要目标的在各帧场景视频画面中位置的变化,当该重要目标偏离拍摄视野的中央区域时,提取该重要目标的运动方向和运动速度,进而按照该运动方向和速度预测该重要目标的预计位置偏离,并参照预测提前驱动监视云台的旋转机械机构。本专利技术进而提供了一种应用于视频监视云台的人工智能预测追踪方法,其特征在于,包括:场景模式识别步骤,用于从场景视频画面当中提本文档来自技高网
...

【技术保护点】
1.一种采用人工智能预测追踪的视频监视云台,其特征在于,包括:场景模式识别单元、目标区域智能学习单元、追踪目标提取单元、云台驱动单元;其中所述场景模式识别单元用于从视频监视云台的摄像机拍摄的场景视频画面当中提取每个场景当中包含的目标,并且量化目标状态生成状态值;根据目标的状态值,判断两幅相邻的场景视频画面是否是相同的场景模式,对相同场景模式的场景视频画面标注同一类场景模式标记;目标区域智能学习单元,用于通过一定数量的样本,学习每一种场景模式下重要运动目标的状态值特征;追踪目标提取单元,用于目标区域智能学习单元的学习结果,根据从当前场景视频画面识别每一个运动目标的状态值,判断该运动目标是否属于重要目标,当结果表明当前场景视频画面中的一个运动目标属于重要目标,则将该运动目标的画面位置坐标提供给云台驱动单元;云台驱动单元,从追踪目标提取单元获得当前场景视频画面中的重要目标的画面位置坐标,从而按照该画面位置坐标锁定当前场景视频画面当中的重要目标,进行追踪拍摄。

【技术特征摘要】
1.一种采用人工智能预测追踪的视频监视云台,其特征在于,包括:场景模式识别单元、目标区域智能学习单元、追踪目标提取单元、云台驱动单元;其中所述场景模式识别单元用于从视频监视云台的摄像机拍摄的场景视频画面当中提取每个场景当中包含的目标,并且量化目标状态生成状态值;根据目标的状态值,判断两幅相邻的场景视频画面是否是相同的场景模式,对相同场景模式的场景视频画面标注同一类场景模式标记;目标区域智能学习单元,用于通过一定数量的样本,学习每一种场景模式下重要运动目标的状态值特征;追踪目标提取单元,用于目标区域智能学习单元的学习结果,根据从当前场景视频画面识别每一个运动目标的状态值,判断该运动目标是否属于重要目标,当结果表明当前场景视频画面中的一个运动目标属于重要目标,则将该运动目标的画面位置坐标提供给云台驱动单元;云台驱动单元,从追踪目标提取单元获得当前场景视频画面中的重要目标的画面位置坐标,从而按照该画面位置坐标锁定当前场景视频画面当中的重要目标,进行追踪拍摄。2.根据权利要求1所述视频监视云台,其特征在于,所述场景模式识别单元比对相邻两幅场景视频画面中是否包含相同目标,以及相同目标占每幅场景视频画面中全部目标的比例是否低于第一阈值;如果两幅场景视频画面中至少一幅的相同目标百分比低于该第一阈值,则判定这两幅场景视频画面分别属于不同的场景模式;如果相邻两幅场景视频画面中包含的相同目标占全部目标的百分比均大于等于第一阈值,则进而利用两幅画面中相同目标各自的状态值,计算这两幅场景视频画面中全部相同目标的状态整体差异度;若状态整体差异度大于等于第二阈值,则判定这两幅场景视频画面具有不同的场景模式,若状态整体差异度低于第二阈值,则判定这两幅场景视频画面具有相同的场景模式。3.根据权利要求1所述视频监视云台,其特征在于,目标区域智能学习单元为每一种场景模式提取一定数量的场景视频画面作为样本画面,并且人工对这些样本画面当中应锁定追踪的运动目标区域进行识别,确定每一幅样本画面当中属于重要目标的运动目标;确定该重要目标在样本画面中的状态值;将每一种场景模式的全部样本画面中的重要目标的状态值执行训练,获得训练好的重要目标识别SVM分类向量机;针对每一种场景模式的全部样本画面,提取样本画面包含的全部运动目标以及每一个运动目标的状态值,获得目标状态值列表,将每一种场景模式的全部样本画面的目标状态列表进行训练,获得训练好的场景模式识别SVM分类向量机。4.根据权利要求3所述视频监视云台,其特征在于,所述追踪目标提取单元用于将当前场景视频画面的运动目标状态值列表代入经训练之后的各个场景模式识别SVM分类向量机,从而判断当前场景视频画面属于哪一种场景模式;进而,将该场景视频画面中每一个运动目标的状态值代入训练好的该场景模式对应的重要目标识别SVM分类向量机,从而识别每一个运动目标是否属于重要目标,当分类结果表明当前场景视频画面中的一个运动目标属于重要目标。5.根据权利要求1所述视频监视云台,其特征在于,,所述云台驱动单元分析该重要目标的在各帧场景视频画面中位置的变化,当该重要目标偏离拍摄视野的中央区域时,提取该重要目标的运动方向和运动速度,进而按照该运动方向和速度预测该重要目标的预计位置偏离,并参照预测提前驱动监...

【专利技术属性】
技术研发人员:董承利
申请(专利权)人:特斯联北京科技有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1