一种车辆目标分割方法、装置及通信设备制造方法及图纸

技术编号:21141862 阅读:37 留言:0更新日期:2019-05-18 05:22
本发明专利技术提供一种车辆目标分割方法、装置及通信设备,该方法包括将各交通视频帧划分为强日光场景或弱日光场景;根据交通视频帧的场景类型,转换到与场景类型对应的色彩空间内;构建交通视频帧的背景帧;基于各交通视频帧与背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果;采用目标检测模型获取车辆目标检测定位结果;将车辆目标第一分割结果与车辆目标检测定位结果进行融合,得到车辆目标第二分割结果;以车辆目标第二分割结果为基础,设计具有噪声抑制能力的深度神经网络模型,获取待预测的交通视频帧,将待预测的交通视频帧输入到车辆目标分割模型,得到预测结果;实现了交通视频中车辆目标的自动标注,具有较高的准确性和效率。

【技术实现步骤摘要】
一种车辆目标分割方法、装置及通信设备
本专利技术涉及智能交通
,尤其涉及一种车辆目标分割方法、装置及通信设备。
技术介绍
随着计算机技术的不断发展,机器学习,模式识别,数据挖掘等方面的技术对智能交通产生了至关重要的作用。目前根据机器学习的形式,可以把交通图像目标识别算法主要分为两类:无监督的目标自动识别算法和有监督目标自动识别算法。所谓无监督目标自动识别算法,就是在没有任何标注的训练数据中,由算法寻求目标的潜在特性,从而完成视频图像中的目标自动检测与识别。而有监督目标检测算法则是对已经由人工标注完全的正负训练样本集进行训练学习,使计算机找出特定目标的一类特征,然后根据训练结果对测试数据中的目标进行自动检测和识别。在海量精准人工标注的基础上,有监督深度学习方法在图像、视频中特定类别目标的检测和分割方面取得了显著的进展。目前有监督深度学习在ImageNet等公开数据集的若干性能指标上超过了人类的水平,在智能交通领域也得到了广泛的关注。国际上已经提出了若干公开的交通视频数据集,也开展了多项交通视频智能分析方面的竞赛,取得了一定的进展。有监督深度学习依赖于大量、准确的像素级人工标注,而准确的像素级人工标注需要投入大量的时间成本和人力成本。交通视频数据具有采集频率高、采集不间断、分辨率较高等特点,而且在光照变化、特殊气候、自然环境等方面具有很强的地区差异性,这对人工标注工作提出了更加严峻的挑战:可供标注的数据规模非常庞大,而较小规模的人工标注数据又难具有足够的代表性。因此在能够保证车辆目标分割性能的前提下,降低投入的人工标注成本与时间成本,显得极其重要。专利技术内容本专利技术提供的一种车辆目标分割方法、装置及通信设备,主要解决的技术问题是:当前车辆目标分割识别过程所需投入的人工、时间成本高。为解决上述技术问题,本专利技术提供一种车辆目标分割方法,包括:获取固定长度时间窗口的交通视频帧,根据预先设定的自适应划分规则,将各所述交通视频帧划分为强日光场景或弱日光场景;根据所述交通视频帧的场景类型,将所述交通视频帧转换到与所述场景类型对应的色彩空间内;构建所述交通视频帧的背景帧;基于各所述交通视频帧与所述背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果;采用目标检测模型获取各所述交通视频帧的车辆目标检测定位结果;将所述车辆目标第一分割结果与所述车辆目标检测定位结果进行融合,得到车辆目标第二分割结果;以所述车辆目标第二分割结果为基础,设计具有噪声抑制能力的深度神经网络模型以及相应的损失函数,训练得到车辆目标分割模型;在进行预测时,获取待预测的交通视频帧,将所述待预测的交通视频帧输入到所述车辆目标分割模型,得到预测结果;将所述预测结果进行二值化处理,得到所述待预测的交通视频帧的车辆目标分割结果。可选的,所述自适应划分规则包括:根据所述交通视频帧的色彩空间分布,建立亮度、色度与饱和度的联合概率分布模型,将所述交通视频帧划分为强日光场景或弱日光场景。可选的,所述根据所述交通视频帧的场景类型,将所述交通视频帧转换到与所述场景类型对应的色彩空间内,包括:对于场景类型为强日光场景的交通视频帧,将其由RGB色彩空间转换到Lab色彩空间;对于场景类型为弱日光场景的交通视频帧,将其由RGB色彩空间转换到灰度空间。可选的,所述在将所述交通视频帧转换到与所述场景类型对应的色彩空间内之前,还包括:将各所述交通视频帧的分辨率调整为设定的目标分辨率。可选的,所述构建所述交通视频帧的背景帧包括:对于转换到Lab色彩空间的各交通视频帧,逐像素针对同一坐标位置的各像素点,使用算术平均构造出第一背景帧;对于转换到灰度空间的各交通视频帧,逐像素针对同一坐标位置的各像素点,取最小灰度值构造出第二背景帧。可选的,所述各基于所述交通视频帧与所述背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果包括:针对各所述交通视频帧,分别逐像素针对同一坐标位置的像素点,计算其与对应的所述背景帧所对应坐标位置的像素点之间的欧氏距离D、以及二范数之最小值,将所述二范数之最小值作为所述像素点的图像噪声概率模型的均方差σ;获取设定参数阈值τ,逐像素判断所述D是否大于所述σ与所述τ之积。如是,则判定所述像素点存在车辆目标,记为“1”;如否,则判定所述像素点不存在车辆目标,记为“0”;得到所述交通视频帧的矩阵M;所述车辆目标第一分割结果包括所述矩阵M。可选的,所述将所述车辆目标第一分割结果与所述车辆目标检测定位结果进行融合,得到车辆目标第二分割结果包括:将所述矩阵M中为“1”的各像素点位置,与所述车辆目标检测定位结果进行比较,判断所述为“1”的像素点位置是否位于所述车辆目标检测定位结果的框选区域内,如是,则仍置为“1”,如否,则置为“0”;得到矩阵M*,所述车辆目标第二分割结果包括所述矩阵M*;所述框选区域内的像素点表征所述车辆目标检测定位结果为存在车辆目标的像素点。进一步的,本专利技术还提供一种车辆目标分割装置,包括:场景划分模块,用于获取固定长度时间窗口的交通视频帧,根据预先设定的自适应划分规则,将各所述交通视频帧划分为强日光场景或弱日光场景;色彩空间转换模块,用于根据所述交通视频帧的场景类型,将所述交通视频帧转换到与所述场景类型对应的色彩空间内;构建模块,用于构建所述交通视频帧的背景帧;第一分割模块,用于基于各所述交通视频帧与所述背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果;车辆目标检测定位模块,用于采用目标检测模型获取各所述交通视频帧的车辆目标检测定位结果;第二分割模块,用于将所述车辆目标第一分割结果与所述车辆目标检测定位结果进行融合,得到车辆目标第二分割结果;分割模型训练模块,用于以所述车辆目标第二分割结果为基础,设计具有噪声抑制能力的深度神经网络模型以及相应的损失函数,训练得到车辆目标分割模型;预测执行模块,用于在进行预测时,获取待预测的交通视频帧,将所述待预测的交通视频帧输入到所述车辆目标分割模型,得到预测结果;预测结果处理模块,用于将所述预测结果进行二值化处理,得到所述待预测的交通视频帧的车辆目标分割结果。进一步的,本专利技术还提供一种通信设备,包括处理器、存储器以及通信总线,所述通信总线用于实现所述处理器与所述存储器之间的通信连接,所述存储器中存储有一个或者多个计算机程序,所述计算机程序可被所述处理器执行,以实现如上任一项所述的车辆目标分割方法的步骤。本专利技术的有益效果是:根据本专利技术提供的一种车辆目标分割方法、装置及通信设备,该方法包括获取固定长度时间窗口的交通视频帧,根据预先设定的自适应划分规则,将各交通视频帧划分为强日光场景或弱日光场景;根据交通视频帧的场景类型,将交通视频帧转换到与场景类型对应的色彩空间内;构建交通视频帧的背景帧;基于各交通视频帧与背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果;采用目标检测模型获取各交通视频帧的车辆目标检测定位结果;将车辆目标第一分割结果与车辆目标检测定位结果进行融合,得到车辆目标第二分割结果;以车辆目标第二分割结果为基础,设计具有噪声抑制能力的深度神经网络模型以及相应的损失函数,训练得到车辆目标分割模型;在进行预测时,获取待预测的交通视频帧,将待预测的交通视频帧输入到车辆目标分割模本文档来自技高网...

【技术保护点】
1.一种车辆目标分割方法,其特征在于,包括:获取固定长度时间窗口的交通视频帧,根据预先设定的自适应划分规则,将各所述交通视频帧划分为强日光场景或弱日光场景;根据所述交通视频帧的场景类型,将所述交通视频帧转换到与所述场景类型对应的色彩空间内;构建所述交通视频帧的背景帧;基于各所述交通视频帧与所述背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果;采用目标检测模型获取各所述交通视频帧的车辆目标检测定位结果;将所述车辆目标第一分割结果与所述车辆目标检测定位结果进行融合,得到车辆目标第二分割结果;以所述车辆目标第二分割结果为基础,设计具有噪声抑制能力的深度神经网络模型以及相应的损失函数,训练得到车辆目标分割模型;在进行预测时,获取待预测的交通视频帧,将所述待预测的交通视频帧输入到所述车辆目标分割模型,得到预测结果;将所述预测结果进行二值化处理,得到所述待预测的交通视频帧的车辆目标分割结果。

【技术特征摘要】
1.一种车辆目标分割方法,其特征在于,包括:获取固定长度时间窗口的交通视频帧,根据预先设定的自适应划分规则,将各所述交通视频帧划分为强日光场景或弱日光场景;根据所述交通视频帧的场景类型,将所述交通视频帧转换到与所述场景类型对应的色彩空间内;构建所述交通视频帧的背景帧;基于各所述交通视频帧与所述背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果;采用目标检测模型获取各所述交通视频帧的车辆目标检测定位结果;将所述车辆目标第一分割结果与所述车辆目标检测定位结果进行融合,得到车辆目标第二分割结果;以所述车辆目标第二分割结果为基础,设计具有噪声抑制能力的深度神经网络模型以及相应的损失函数,训练得到车辆目标分割模型;在进行预测时,获取待预测的交通视频帧,将所述待预测的交通视频帧输入到所述车辆目标分割模型,得到预测结果;将所述预测结果进行二值化处理,得到所述待预测的交通视频帧的车辆目标分割结果。2.如权利要求1所述的车辆目标分割方法,其特征在于,所述自适应划分规则包括:根据所述交通视频帧的色彩空间分布,建立亮度、色度与饱和度的联合概率分布模型,将所述交通视频帧划分为强日光场景或弱日光场景。3.如权利要求1所述的车辆目标分割方法,其特征在于,所述根据所述交通视频帧的场景类型,将所述交通视频帧转换到与所述场景类型对应的色彩空间内,包括:对于场景类型为强日光场景的交通视频帧,将其由RGB色彩空间转换到Lab色彩空间;对于场景类型为弱日光场景的交通视频帧,将其由RGB色彩空间转换到灰度空间。4.如权利要求3所述的车辆目标分割方法,其特征在于,所述在将所述交通视频帧转换到与所述场景类型对应的色彩空间内之前,还包括:将各所述交通视频帧的分辨率调整为设定的目标分辨率。5.如权利要求3所述的车辆目标分割方法,其特征在于,所述构建所述交通视频帧的背景帧包括:对于转换到Lab色彩空间的各交通视频帧,逐像素针对同一坐标位置的各像素点,使用算术平均构造出第一背景帧;对于转换到灰度空间的各交通视频帧,逐像素针对同一坐标位置的各像素点,取最小灰度值构造出第二背景帧。6.如权利要求1-5任一项所述的车辆目标分割方法,其特征在于,所述各基于所述交通视频帧与所述背景帧,采用差分法与图像噪声概率模型构建车辆目标第一分割结果包括:针对各所述交通视频帧,分别逐像素针对同一坐标位置的像素点,计算其与对应的所述背景帧所对应坐标位置的像素点之间的欧氏距离D、以...

【专利技术属性】
技术研发人员:张睿赵启阳张红龙郑佩洪
申请(专利权)人:重庆同济同枥信息技术有限公司
类型:发明
国别省市:重庆,50

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1