存储器、基于监控视频的交互测量方法、系统和设备技术方案

技术编号:26592844 阅读:60 留言:0更新日期:2020-12-04 21:13
本发明专利技术公开了存储器、基于监控视频的交互测量方法、系统和装置,其中所述方法包括:生成监测对象的三维空间模型;获取各视频采集单元的云台参数;对视频画面数据进行空间矢量化生成视频画面的二维坐标数据;根据视频采集单元的云台参数,将视频采集单元的视频画面中的二维坐标数据转换至三维空间模型统一的坐标系,并生述视频画面中各点位对应的深度数据;根据目标点位的二维坐标数据和对应深度数据,生成目标点位的三维坐标数据;以目标点位的三维坐标数据为参数进行监测对象内空间距离、空间面积或空间体积的计算。本发明专利技术通过为紧急事件的应对和处理提供更加全面的数据信息提高了事件处理的便捷性和高效性。

【技术实现步骤摘要】
存储器、基于监控视频的交互测量方法、系统和设备
本专利技术涉及视频处理领域,特别涉及存储器、基于监控视频的交互测量方法、系统和装置。
技术介绍
楼宇监控中,一般会以建筑物以及建筑物的周边为监控对象,通过摄像头等视频采集单元来对监控对象进行实时监测。通过在监控室对视频采集单元获得实时视频画面进行监测,可以及时的发现各种突发危险。专利技术人经过研究发现,现有技术中至少存在以下缺陷:现有技术对于实时视频画面的利用仅仅还停留在用于对监测区域场景的主观观测,即使利用视频识别算法也只能获得对于视频画面中物体识别的结果信息;因此,现有技术中对于实时视频画面的应用方式不能在诸如发生火灾等紧急场景时提供现场中物体或特定对象的准确的尺寸和位置数据。公开于该
技术介绍
部分的信息仅仅旨在增加对本专利技术的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
技术实现思路
本专利技术的目的是通过实时视频画面获取检测对象的现场中物体准确的尺寸和位置数据。本专利技术提供了一种基于监控视频的交互测量方法,包括步骤:生成监测对象的三维空间模型;获取各视频采集单元的云台参数;所述云台参数中的位置坐标参数与所述三维空间模型的坐标系适配;通过视频采集单元获取所述监测对象的视频画面数据;对所述视频画面数据进行空间矢量化,生成视频画面的二维坐标数据;根据所述视频采集单元的云台参数,将所述视频采集单元的视频画面中的二维坐标数据转换至所述三维空间模型统一的坐标系,并生成所述视频画面中各点位对应的深度数据;根据对于所述视频画面的触发事件获取所述视频画面中目标点位的二维坐标数据和对应深度数据,生成所述目标点位的三维坐标数据;以所述目标点位的三维坐标数据为参数进行监测对象内空间距离、空间面积或空间体积的计算。在本专利技术中,所述生成监测对象的三维空间模型,包括:通过点云、倾斜摄影或人工建模构建所述监测对象的三维空间模型。在本专利技术中,所述云台参数包括:所述视频采集单元在所述三维空间模型的坐标系中的三维坐标数据,以及,所述视频采集单元的镜头参数。在本专利技术中,所述生成与所述视频画面中的各点位对应的深度数据,包括:以所述三维空间模型为参照,根据所述当前视频采集单元的云台参数,计算所述视频画面中点位对应的深度数据。在本专利技术中,所述以所述目标点位的三维坐标数据为参数进行监测对象内空间距离、空间面积或空间体积的计算,包括:通过第一目标点位的三维坐标数据与第二目标点位的三维坐标数据之间的空间距离计算,确定视频画面中两个点位之间的空间距离。在本专利技术的另一面,还提供了一种基于监控视频的交互测量装置,包括:空间模型生成单元,用于生成监测对象的三维空间模型;云台参数获取单元,用于获取各视频采集单元的云台参数;所述云台参数中的位置坐标参数与所述三维空间模型的坐标系适配;画面数据获取单元,用于通过视频采集单元获取所述监测对象的视频画面数据;对所述视频画面数据进行空间矢量化,生成视频画面的二维坐标数据;深度数据生成单元,用于根据所述视频采集单元的云台参数,将所述视频采集单元的视频画面中的二维坐标数据转换至所述三维空间模型统一的坐标系,并生成所述视频画面中各点位对应的深度数据;三维坐标生成单元,用于根据对于所述视频画面的触发事件获取所述视频画面中目标点位的二维坐标数据和对应深度数据,生成所述目标点位的三维坐标数据;空间几何计算单元,用于以所述目标点位的三维坐标数据为参数进行监测对象内空间距离、空间面积或空间体积的计算。在本专利技术中,所述生成监测对象的三维空间模型,包括:通过点云、倾斜摄影或人工建模构建所述监测对象的三维空间模型。在本专利技术中,所述云台参数包括:所述当前视频采集单元在所述三维空间模型的坐标系中的三维坐标数据,以及,所述当前视频采集单元的镜头参数。在本专利技术的另一面,还提供了一种存储器,包括软件程序,所述软件程序适于由处理器执行上述基于监控视频的交互测量方法的步骤。本专利技术实施例的另一面,还提供了一种基于监控视频的交互测量设备,所述基于监控视频的交互测量设备包括存储在存储器上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行以上各个方面所述的方法,并实现相同的技术效果。与现有技术相比,本专利技术具有如下有益效果:本专利技术实施例在生成了监测对象的三维空间模型后,构建了对应的三维空间模型的坐标系;然后根据各个视频采集单元的云台参数,来对视频画面中二维坐标数据的点位进行坐标系的转换,将视频画面的二维坐标数据转换至上述三维空间模型的坐标系中;接着,根据三维空间模型和视频采集单元的云台参数,来计算出视频采集单元的视频画面的各点位对应的深度数据。这样,当需要通过视频画面进行两个位置间的空间距离的计算时,可以首先通过点击等触发事件在视频画面中分别确定出两个位置的二维坐标数据,然后根据这两个位置的二维坐标数据对应的深度数据,可以生成这两个位置(点位)的三维坐标数据;然后根据这两个位置(点位)的三维坐标数据,就可以计算出这两个位置的空间距离;以此类推,本专利技术实施例还可以计算出多个位置(点位)围合而成的面积数据或是体积数据等。通过本专利技术实施例,可以在发生火灾等紧急事件时,可以远程的根据近场的视频画面来准确的获得灾难现场内如楼梯宽度、过火面积等空间数据,进而可以为紧急事件的应对和处理提供更加全面的数据信息,从而可以进一步的提高事件处理的便捷性和高效性。上述说明仅为本专利技术技术方案的概述,为了能够更清楚地了解本专利技术的技术手段并可依据说明书的内容予以实施,同时为了使本专利技术的上述和其他目的、技术特征以及优点更加易懂,以下列举一个或多个优选实施例,并配合附图详细说明如下。附图说明图1是本专利技术中所述基于监控视频的交互测量方法的步骤图;图2是本专利技术中所述基于监控视频的交互测量装置的结构示意图;图3是本专利技术中所述基于监控视频的交互测量设备的结构示意图。具体实施方式下面结合附图,对本专利技术的具体实施方式进行详细描述,但应当理解本专利技术的保护范围并不受具体实施方式的限制。除非另有其他明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其他元件或其他组成部分。在本文中,术语“第一”、“第二”等是用以区别两个不同的元件或部位,并不是用以限定特定的位置或相对关系。换言之,在一些实施例中,术语“第一”、“第二”等也可以彼此互换。实施例一为了能够通过实时视频画面获取检测对象的现场中物体准确的尺寸和位置数据,如图1所示,在本专利技术实施例中提供了基于监控视频的交互测量方法,包括步骤:S11、生成监测对象的三维空间模型;本文档来自技高网...

【技术保护点】
1.一种基于监控视频的交互测量方法,其特征在于,包括步骤:/n生成监测对象的三维空间模型;/n获取各视频采集单元的云台参数;所述云台参数中的位置坐标参数与所述三维空间模型的坐标系适配;/n通过视频采集单元获取所述监测对象的视频画面数据;对所述视频画面数据进行空间矢量化,生成视频画面的二维坐标数据;/n根据所述视频采集单元的云台参数,将所述视频采集单元的视频画面中的二维坐标数据转换至所述三维空间模型统一的坐标系,并生成所述视频画面中各点位对应的深度数据;/n根据对于所述视频画面的触发事件获取所述视频画面中目标点位的二维坐标数据和对应深度数据,生成所述目标点位的三维坐标数据;/n以所述目标点位的三维坐标数据为参数进行监测对象内空间距离、空间面积或空间体积的计算。/n

【技术特征摘要】
1.一种基于监控视频的交互测量方法,其特征在于,包括步骤:
生成监测对象的三维空间模型;
获取各视频采集单元的云台参数;所述云台参数中的位置坐标参数与所述三维空间模型的坐标系适配;
通过视频采集单元获取所述监测对象的视频画面数据;对所述视频画面数据进行空间矢量化,生成视频画面的二维坐标数据;
根据所述视频采集单元的云台参数,将所述视频采集单元的视频画面中的二维坐标数据转换至所述三维空间模型统一的坐标系,并生成所述视频画面中各点位对应的深度数据;
根据对于所述视频画面的触发事件获取所述视频画面中目标点位的二维坐标数据和对应深度数据,生成所述目标点位的三维坐标数据;
以所述目标点位的三维坐标数据为参数进行监测对象内空间距离、空间面积或空间体积的计算。


2.根据权利要求1所述的基于监控视频的交互测量方法,其特征在于,所述生成监测对象的三维空间模型,包括:
通过点云、倾斜摄影或人工建模构建所述监测对象的三维空间模型。


3.根据权利要求2所述的基于监控视频的交互测量方法,其特征在于,所述云台参数包括:
所述视频采集单元在所述三维空间模型的坐标系中的三维坐标数据,以及,所述视频采集单元的镜头参数。


4.根据权利要求3所述的基于监控视频的交互测量方法,其特征在于,所述生成与所述视频画面中的各点位对应的深度数据,包括:
以所述三维空间模型为参照,根据所述当前视频采集单元的云台参数,计算所述视频画面中点位对应的深度数据。


5.根据权利要求4所述的基于监控视频的交互测量方法,其特征在于,所述以所述目标点位的三维坐标数据为参数进行监测对象内空间距离、空间面积或空间体积的计算,包括:
通过第一目标点位的三维坐标数据与第二目标点位的三维坐标数据之间的空间距离计算,确定视频画面中两个点位之...

【专利技术属性】
技术研发人员:余海强
申请(专利权)人:北京睿呈时代信息科技有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1