一种基于无人机航拍视频交通信息统计方法及系统技术方案

技术编号:18527650 阅读:14 留言:0更新日期:2018-07-25 13:31
本发明专利技术实施例公开了一种基于无人机航拍视频交通信息统计方法及系统,所述统计方法包括:收集无人机高分辨率航拍视频;通过深度学习算法YOLO‑9000对高分辨率航拍视频中起始帧作多目标检测,根据合并规则对多个剖分对象中的检测目标进行整体合并;根据目标检测结果作为视频帧目标跟踪的初始跟踪目标,将两帧之间的目标位移进行目标跟踪;通过目标检测与目标跟踪的结果对目标进行更新,实时准确跟踪;根据跟踪结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。

【技术实现步骤摘要】
一种基于无人机航拍视频交通信息统计方法及系统
本专利技术涉及航拍视频的智能分析领域,尤其涉及一种基于无人机航拍视频交通信息统计方法及系统。
技术介绍
随着城市汽车数量的快速增加,交通堵塞已经成了城市交通领域的难题。特别是近几年,由于城市规划考虑不够长远,忽略城市基础设施建设的重要性,道路交通管理技术落后,导致道路拥堵现象和交通事故频发,使得道路交通拥堵成为中国大中型城市最难解决的问题之一。道路拥挤、交通阻塞、乘车难、行车难、行路难等问题影响着人们的出行和城市的发展。如何实现高效的交通调度、引导规范的交通行为、减少频发的交通事故已经刻不容缓,是我们急切需要解决的问题。将计算机科学与通信等高新技术运用于交通监控管理与车辆控制,以保障交通顺畅及行车安全,从而改善环境质量,促进经济发展的智能交通系统也随之应运而生。在智能交通系统中,实时获取交通车流量统计技术为智能交通系统提供基础决策数据,有助于交通管理部门对交通进行优化调度,有助于驾驶员更好的选择出行路线,城市规划者可以根据车流量参数做出对道路是否进行加宽的规划,因此交通车流量统计的研究具有十分重要的理论意义及潜在的应用价值。传统交通车流量统计方法有人工计数法、电磁感应线圈法、超声波检测器法、微波检测器法和红外线检测器法等多种方式,以及基于图像处理的视频车辆检测法。这些方法中,人工计数法需安排至少一人到每个路口,通过人工判别的方法对车流量计数,该方法需要耗费大量的人力,且人工计数的准确性难以确定,也无法获取车速等信息;电磁感应线圈法通过在道路中央埋设电感感应线圈来对路过该路段的车辆进行检测,该方法需要对道路进行重新改装,耗费人力物力,也无法获取车速等信息,无法大面积的推广;超声波检测器法、微波检测器法和红外线检测器法等这些方法通过超声波传感器、微波传感器和红外传感器获取车辆信息,这些方法无法获取车辆的类别。基于图像处理的视频车辆检测法方式近年来发展迅速,这种方法利用安装在交通道路两侧或者交通路口处的监控摄像头获取的交通视频数据,通过计算机视觉等方法对运动目标进行检测以获取交通流量信息,该方法具有检测区域大、系统设置灵活等突出的优点,视频检测方法已成为智能交通系统领域中车辆统计技术的一个研究热点。传统的基于视频图像的运动目标检测方法的视频图像主要为安装在交通道路两侧或者交通路口处的监控摄像头,由于摄像头位置、视野等的限制,很难由一路摄像头获取待统计区域内所有车辆的图像信息。近年来,国内外学者对基于视频图像的运动目标检测进行了广泛的研究。传统的车辆检测方法有:背景差分法、时间差分法、光流法等。这些方法中,背景差分法由于其运算量相对较少,并且可以加入背景更新技术实现背景自适应更新,能够较精确的分割出移动物体,从而在运动目标检测分割等方面得到广泛的应用,同时由于其自身的缺点,广大科学工作者也根据不同需要对其进行了改进。时间差分方法是在连续的图像序列中两个或三个相邻帧间采用基于像素的帧间差分,但其一般不能完全提取出所有相关的特征像素点,在运动实体内部容易产生空洞现象。基于光流方法的运动检测由于其运算量相当大,抗噪性能差,依赖特别的硬件装置而使其应用受到了限制。目前基于固定监控摄像头获取的监控视频的交通车流量自动统计方法不能取得较为理想的结果。
技术实现思路
本专利技术实施例所要解决的技术问题在于,提供一种基于无人机航拍视频交通信息统计方法及系统,高效、快速、方便统计整个区域内所有车流量信息。为了解决上述技术问题,本专利技术实施例提出了一种基于无人机航拍视频交通信息统计方法,所述实现方法包括:航拍视频采集步骤:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;视频起始帧检测步骤:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;视频帧跟踪步骤:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;视频帧更新输出步骤:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;交通信息统计步骤:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。相应地,本专利技术实施例还提供了一种基于无人机航拍视频交通信息统计系统,包括:航拍视频采集模块:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;视频起始帧检测模块:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;视频帧跟踪模块:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;视频帧更新输出模块:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;交通信息统计模块:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。本专利技术实施例通过提出一种基于无人机航拍视频交通信息统计方法及系统,包括步骤1~步骤10,基于深度学习算法YOLO-9000的高分辨率图像多目标检测、跟踪及视频帧图像像方空间与物方空间的转换,解决了高分辨率图像小目标检测和克服了无人机不可避免的位置偏移所造成的视频位移的问题,进而到达了提高目标提取精度、多目标检测的鲁棒性及使像素坐标与空间坐标得到统一的技术效果。附图说明图1是本专利技术实施例的基于无人机航拍视频交通信息统计方法流程图。图2是本专利技术实施例的单帧图像剖分图。图3是本专利技术实施例的IOU计算图。图4是本专利技术实施例的像方空间转物方空间原理图。图5是本专利技术实施例的基于无人机航拍视频交通信息统计系统结构示意图。具体实施方式需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本专利技术作进一步详细说明。本专利技术实施例中若有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。另外,在本专利技术中若涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。请参照图1~图4,本专利技术实施例的一种基于无人机航拍视频交通信息统计方法,所述统计方法包括:航拍视频采集步骤:采集无人机高分辨率航拍视频,将无人机传输本文档来自技高网
...

【技术保护点】
1.一种基于无人机航拍视频交通信息统计方法,应用在交通信息自动统计系统中,其特征在于,所述统计方法包括::航拍视频采集步骤:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;视频起始帧检测步骤:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO‑9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;视频帧跟踪步骤:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;视频帧更新输出步骤:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;交通信息统计步骤:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。

【技术特征摘要】
1.一种基于无人机航拍视频交通信息统计方法,应用在交通信息自动统计系统中,其特征在于,所述统计方法包括::航拍视频采集步骤:采集无人机高分辨率航拍视频,将无人机传输的模拟信号转换成数字视频;视频起始帧检测步骤:对高分辨率航拍视频中起始帧作多目标检测;将单帧图像按规则剖分成多张图像,通过采用深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,并对多个剖分对象中的检测目标进行整体合并得到检测结果;视频帧跟踪步骤:根据将目标检测结果作为视频帧目标跟踪的初始跟踪目标,并根据两帧之间的目标位移进行目标跟踪;将目标框表示被跟踪的目标,并在连续的相邻视频帧之间估计目标运动;视频帧更新输出步骤:通过目标检测与目标跟踪的结果对目标进行更新,以达到目标的实时准确跟踪,获取基于高分辨率航拍视频中目标的跟踪信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类;交通信息统计步骤:根据跟踪的结果进行后处理及经过视帧图像像方空间与物方空间的转换获取每个像素的实际空间坐标,目标在时间序列中的空间轨迹计算交通信息,获取道路交通流信息。2.如权利要求1所述的基于无人机航拍视频交通信息统计方法,其特征在于,视频起始帧检测步骤包括:单帧图像剖分子步骤:对视频中单帧图像按规则剖分成多张图像提取,设单帧图像的高与宽分别为W和H,剖分图像的宽很高分别为w和h,宽度与高度之间的重叠间隔分别为△w和△h,则共有剖分图像的个数Pn为:图像多目标检测子步骤:深度学习算法YOLO-9000对高分辨率航拍视频中起始帧作多目标检测,维度聚类过程中YOLO-9000算法采用的是k-means聚类算法,选取最佳尺寸的候选框;k-means聚类算法需要提前指定聚类簇的个数k,且其对种子点的初始化敏感,采用k-means++算法及新的距离计算公式;设通过卷积获取的候选框集合为①从候选框集合中随机选择一个候选框作为第一个聚类中心;②对于候选框集合计算中每一个候选框与最近聚类中心即已选择的聚类中心的距离D(x);设为候选框集合中任意一个候选框,为候选框集合中的一个聚类中心,则μi与μk之间的距离D(x)ik为:D(x)ik=1-f[IOU(μi,μk)];其中f(·)为Sigmoid激活函数,其公式为:IOU(·)为检测评价函数,即模型产生的目标窗口和原来标记窗口的交叠率;设候选框μi的范围为(xi,yi,wi,hi),候选框μk的范围为(xk,yk,wk,hk),候选框μi与候选框μk的IOU指即为两矩形框的交集与并集之间的除值,即:③选择一个新的候选框作为新的聚类中心,选择的原则是:D(x)较大的候选框,被选取作为聚类中心的概率较大;④重复②③直到m个聚类中心被选出来;⑤根据m个初始的聚类中心来运行标准的k-means聚类算法;目标合并子步骤:根据图像多目标检测子步骤对每个剖分的进行多目标检测,检测图像中的不同种类的车辆,剖分图像之间存在重叠,且剖分图像的边界地区也存在待检测的车辆,将单帧图像中所有的剖分图像的已检测目标进行合并,假设任意两个已检测目标分别为ti,tj,则ti,tj是否为同一目标由以下公式判定:ti,tj∈同一目标IFIOU(ti,tj)≥0.8&&ti,tj∈同一种类。3.如权利要求1所述的基于无人机航拍视频交通信息统计方法,其特征在于,所述视频帧跟踪步骤包括:子步骤301.在上一帧的目标框中选择若干个像素点作为特征点,在下一帧中寻找上一帧中的特征点在当前帧中的对应位置;子步骤302将特征点在相邻两帧之间的位移变化进行排序,得到位移变化的中值,利用该中值,得到小于中值的50%的特征点,将这50%个特征点作为下一帧的特征点,并依次进行下去;子步骤303.当目标完全被遮挡或者消失于视野,则不可避免地出现跟踪失败,采用如下策略避免:设di为某一个特征点的移动位移,dm表示位移中值,则残差定义为|di-dm|;如果残差大于10个像素,则跟踪失败。4.如权利要求1所述的基于无人机航拍视频交通信息统计方法,其特征在于,所述目标状态的更新与输出步骤包括:目标状态的更新与输出子步骤:子步骤401.当视频跟踪N帧(N一般可取5)后,对当前跟踪帧图像做目标检测,设通过视频帧跟踪得到的当前目标集合为通过目标检测得到的当前目标集合为子步骤402.计算视频帧跟踪目标集合中每一个目标到目标检测集合的距离,设ti到的距离为Di,则有:其中f(·)为公式IOU(·)为公式即跟踪目标集合中每一个目标到目标检测集合的距离为该目标到集合中距离值的最小值;子步骤403.当视频帧跟踪目标集合中目标ti到中dk的距离Di满足公式时,且Di的值大于0.8,则ti与dk为同一目标,同时更新ti的值,使其值与dk相等;当Di小于0.8时,则ti与dk不为同一目标,则在集合中舍弃ti;在计算集合中每一个目标到集合的距离时,集合中存在未满足的目标,则这些目标为新增加的目标,将这些目标加入集合中参与目标跟踪运算,重复子步骤401、402、403直至视频帧计算完毕;通过子步骤401、402、403,获取无人机高分辨率航拍视频中车辆目标跟踪的信息,即跟踪目标在视频帧序列中每一帧图像中的位置和种类。5.如权利要求1所述的基于无人机航拍视频交通信息统计方法,其特征在于,所述交通信息统计步骤包括:设经过无人机高分辨率航拍视频车辆目标跟踪获取每个目标为其中ci为视频跟踪的车辆目标;设车辆目标ci在视频帧序列中的位置依次为其中为车辆目标ci在视频帧tk时的位置,设车辆目标的类别分别为则车辆目标ci在视频帧tk时的位置的值为:其中pd为车辆目标ci的类别,与分别为车辆目标ci在视频帧图像中边框的像素中心横纵坐标;无人机通常自带全球定位系统(GPS)可获取每时刻摄像机的空间位置、离地高以及对应的时间;设车辆目标ci在视频帧tk时通过GPS获取的摄影中心的空间位置、离地高分别为和摄像机焦距为f,车辆目标ci在视频帧tk时的位置所对应的空间位置为视频帧图像的长宽分别为W和H,则有:通过公式上式得到车辆目标ci在视频...

【专利技术属性】
技术研发人员:张亮熊伟成李学万
申请(专利权)人:深圳市智绘科技有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1