The invention discloses a multi camera network space model candidate target extraction method, first through the single camera moving foreground segmentation and target tracking for each camera in each target import time data and its trajectory, according to the data of different time calculation of camera between different target transfer time according to the decision of whether or not connected to the camera. Get the camera topology structure of the network; then the transfer time is connected between the camera model, through the study of fitting model parameters, time model camera network is finally obtained; time and space structure model combination camera network space model. When candidate targets are extracted, the connectivity between camera nodes is determined according to the spatial structure of the camera. Then, the time window for searching in connected cameras is computed according to the probability model of transfer time, and finally the candidate targets are extracted. The invention reduces the search range of the target at the same time to ensure the reliability of the candidate target extraction, and greatly reduces the search complexity.
【技术实现步骤摘要】
多相机网络时空模型的候选目标提取方法
本专利技术涉及一种智能交通和计算机视觉领域,具体涉及一种多相机网络时空模型的候选目标提取方法。
技术介绍
随着城市规模的扩张、道路车流量的增长,各式各样的监控相机架设在城区中各大小路口,扩充了道路交通的监控范围。利用精细化分割及单相机跟踪的方法可获取车辆在各个相机中的轨迹碎片,然后基于相机网络拓扑关系,在相机网络覆盖的范围内,对目标进行广域跟踪并得到其在网络中的运动轨迹,这是所谓的多相机网络广域车辆跟踪。对多相机视野覆盖下的大范围城市区域中的车辆跟踪问题而言,每个相机在一定时段内将产生庞大的数据量,而对于整个相机网络,其获取的数据更是海量的。若直接对整个网络所有数据进行穷举式搜索,则将引入极大的计算复杂度。在无重叠视野广域目标跟踪候选目标提取方法的研究中,文献“ZhengL,ShenL,TianL,etal.Scalablepersonre-identification:Abenchmark[C]//Proceed-ingsoftheIEEEInternationalConferenceonComputerVision.2015:1116-1124.”使用词袋模型(Bag-of-Words)和颜色名称(ColorName)等外观特征对目标集合进行筛选;文献“SzegedyC,LiuW,JiaY,etal.Goingdeeperwithconvolutions[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.2015:1-9” ...
【技术保护点】
多相机网络时空模型的候选目标提取方法,其特征在于,包括下列步骤:步骤1:训练相机网络时空模型:基于相机网络中的各相机节点在不同时段采集到的视频样本,对车辆目标进行检测和跟踪,得到不同车辆目标进入相机网络中的相机节点的时刻
【技术特征摘要】
1.多相机网络时空模型的候选目标提取方法,其特征在于,包括下列步骤:步骤1:训练相机网络时空模型:基于相机网络中的各相机节点在不同时段采集到的视频样本,对车辆目标进行检测和跟踪,得到不同车辆目标进入相机网络中的相机节点的时刻其中上标n为车辆目标区分符、下标j为相机节点区分符;采集相机网络中的任意一对相机节点间的转移时间构建任意相机对Cij的转移时间样本集合其中i、j用于区分不同的相机节点;若转移时间样本集合的转移时间样本数量大于或等于数量阈值,则将相机对Cij之间的连通性设置为连通;分别将各连通的相机对Cij的转移时间样本集合中的转移时间作为输入样本进行高斯混合建模,得到对应相机对Cij的转移时间分布:随机初始化K个高斯分布,每个高斯分布由权重ω、转移时间均值tmean、时间方差构成;依次将集合的转移时间分别与K个高斯分布进行匹配:若转移时间与时间均值tmean的距离d大于距离阈值,则认为与当前高斯分布不匹配,更新当前高斯分布的权重ω为:ω=(1-α)×ω,其中α表示预设的学习速率;若转移时间与时间均值tmean的距离d小于或等于距离阈值,则认...
【专利技术属性】
技术研发人员:王正宁,周阳,马姗姗,吕侠,冯龙飞,
申请(专利权)人:电子科技大学,
类型:发明
国别省市:四川,51
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。