一种基于深度神经网络的汽车外观自动定损方法及系统技术方案

技术编号:19635545 阅读:177 留言:0更新日期:2018-12-01 16:12
本发明专利技术公开了一种基于深度神经网络的汽车外观自动定损方法及系统,手机拍摄事故车辆远/中景照片,并实时对远/中景照片进行车辆与车辆总成部件检测,根据车辆与车辆总成部件检测结果确认用户处于合适的距离内拍摄,提示用户拍摄第1张局部车辆照片;手机继续拍摄事故车辆的细节照片,实时对细节照片中的损伤区域进行检测;当检测到损伤区域时,则提示用户拍摄第1张细节照片;拍摄完成后,继续提示用户靠近拍摄该区域,当再次检测到损伤区域时,则提示用户拍摄第2张细节照片,完成后提交当前损伤单元;后台服务器对手机提交的每组损伤单元进行损伤识别,并对多组损伤单元的识别结果进行融合,得出该事故车辆的损伤详情。

A Method and System for Automatic Damage Determination of Automobile Appearance Based on Deep Neural Network

The invention discloses an automatic damage determination method and system for automobile appearance based on depth neural network. Mobile phones take remote/mid-range photos of accident vehicles, and real-time inspect remote/mid-range photos of vehicles and vehicle assembly components. According to the test results of vehicles and vehicle assembly components, the user is confirmed to be in a suitable distance to take photos. Show the user to take the first local vehicle photo; Mobile phone continues to take the details of the accident vehicle photos, real-time detection of the damage area in the details photos; When the damage area is detected, the user is prompted to take the first details photos; After the shooting is completed, continue to prompt the user to close to the area, when the damage is detected again. When the damage area is damaged, the user is prompted to take the second detail photo and submit the current damage unit after completion. The background server identifies each group of damage units submitted by the mobile phone, and fuses the identification results of multiple groups of damage units to obtain the damage details of the accident vehicle.

【技术实现步骤摘要】
一种基于深度神经网络的汽车外观自动定损方法及系统
本专利技术属于计算机图像数据处理
,尤其涉及一种基于深度神经网络的汽车外观自动定损方法及系统。
技术介绍
汽车外观损伤查勘,在汽车业务中比较常见,通常汽车事故发生后,保险公司查勘人员需要到现场进行实地调查和记录,然后事故汽车司机再到汽车定损中心进行汽车损伤程度鉴定,最后事故汽车司机根据鉴定结论到维修店再修车。当前也存在一些远程视频查勘系统,该系统主要是现场查勘人员连线后台专业定损人员,根据后台专业定损人员的指引,对现场事故车辆的损伤进行拍照查勘,完成车辆外观损伤的鉴定。2012年以来,深度学习在图片识别领域取得非常大的进步。相比传统的图片识别方法使用的色彩、HOG等低级视觉特征;深度神经网络能学得更多高级的、抽象的特征,这使得深度神经网络的性能远远超越传统方法。2014年以来,深度学习开始在物体检测,物体分割等领域取得优秀成果,涌现出Deeplab,YOLO,FasterRCNN,等一序列方法,识别准确率在特定任务上已经超越了人类识别的水平,并在生成环境中得到大规模使用。深度学习在汽车外观损伤自动定损领域进行的工作比较少,2016年左右开始有人尝试,但是受限于数据获取的难度,这个领域一直进展比较慢,目前也还没有一个可以成熟落地使用的系统或方法,都处于实验阶段。申请公布号为“CN107358596A”、专利技术名称为“一种基于图像的车辆定损方法、装置、电子设备及系统”公开了通过手机拍照上传事故车辆外观图片,然后通过深度学习技术实现图片之间关联和损伤部位识别,然后再对损伤部位的损伤细节进行损伤类型、程度识别,最后通过多个损伤图片进行综合决策实现事故车辆外观的自动定损过程。上述方法中用户拍照提交服务器人工审核的方式存在延时大、成本高、用户体验差的问题以及定损周期比较长,不能快速自动定损也会影响城市交通,容易造成交通拥堵的问题。
技术实现思路
针对上述问题中存在的不足之处,本专利技术提供一种基于深度神经网络的汽车外观自动定损方法及系统。为实现上述目的,本专利技术提供一种基于深度神经网络的汽车外观自动定损方法,包括:步骤1、手机拍摄事故车辆远/中景照片,并实时对远/中景照片进行车辆检测、车辆总成部件检测,根据车辆检测结果与车辆总成部件检测结果确认用户是否处于合适的距离内拍摄;若处于合适的距离内拍摄,则提示用户拍摄,由用户拍摄第1张局部车辆照片;步骤2、手机继续拍摄事故车辆的细节照片,并实时对细节照片中的损伤区域进行检测;当检测到损伤区域时,则提示用户拍摄,由用户拍摄第1张细节照片;拍摄完成后,继续提示用户靠近拍摄该区域,当再次检测到损伤区域时,则提示用户拍摄,由用户拍摄第2张细节照片,完成后提交当前损伤单元;步骤3、手机提交的损伤单元通过网络上传到后台服务器中,后台服务器对每组损伤单元进行损伤识别,并对多组损伤单元的识别结果进行融合,得出该事故车辆的损伤详情。作为本专利技术的进一步改进,在步骤1中,第1张局部车辆照片采用深度卷积网络对图片中的车辆目标及车辆总成部件进行检测,当检测到车辆目标及三个或三个以上的车辆总成部件时,同时要求车辆目标在图片中的占比超过90%时,则判定用户的拍摄距离合适。作为本专利技术的进一步改进,在步骤2中,细节照片采用深度卷积网络对图片中损伤区域进行检测,当视频中连续3帧及以上检测到损伤区域时,则判定该图片为损伤细节图片。作为本专利技术的进一步改进,在步骤3中,后台服务器通过调用车辆部件自动定损算法对每组损伤单元进行损伤识别,单组损伤单元进行损伤识别的方法包括:步骤31、用户上传损伤单元图片序列;步骤32、局部车辆图片方位识别;步骤33、局部车辆图片中车辆总成部件及子部件识别;步骤34、细节图片中车辆总成部件及子部件识别;步骤35、细节图片关联局部车辆图片;步骤36、细节图片损伤区域检测;步骤37、识别出带有损伤的子部件区域;步骤38、损伤区域的多维度损伤类型及程度识别;步骤39、查询匹配带有损伤的子部件的维修方案。作为本专利技术的进一步改进,在步骤32中,采用深度学习分类算法进行局部车辆图片方位识别。作为本专利技术的进一步改进,在步骤33或步骤34中,采用深度学习的分割算法进行局部车辆图片或细节图片中车辆总成部件及子部件识别。作为本专利技术的进一步改进,在步骤36中,采用目标检测算法进行细节图片损伤区域检测。作为本专利技术的进一步改进,在步骤38中,采用深度学习的分类网络设计多个输出分类标签进行损伤区域的多维度损伤类型及程度识别。作为本专利技术的进一步改进,在步骤3中,基于多组损伤单元进行综合决策,得出该事故车辆的损伤详情;事故车辆的损伤详情包括损伤类型、损伤程度和维修方案。本专利技术还提供一种基于深度神经网络的汽车外观自动定损系统,包括:手机客户端,用于拍摄事故车辆远/中景照片,并实时对远/中景照片进行车辆检测、车辆总成部件检测,根据车辆检测结果与车辆总成部件检测结果确认用户是否处于合适的距离内拍摄;若处于合适的距离内拍摄,则提示用户拍摄,由用户拍摄第1张局部车辆照片;以及,用于继续拍摄事故车辆的细节照片,并实时对细节照片中的损伤区域进行检测;当检测到损伤区域时,则提示用户拍摄,由用户拍摄第1张细节照片;拍摄完成后,继续提示用户靠近拍摄该区域,当再次检测到损伤区域时,则提示用户拍摄,由用户拍摄第2张细节照片,完成后提交当前损伤单元;后台服务器,用于对手机客户端提交的每组损伤单元进行损伤识别,并对多组损伤单元的识别结果进行融合,得出该事故车辆的损伤详情。与现有技术相比,本专利技术的有益效果为:本专利技术是基于深度神经网络的汽车外观图像损伤识别的自动化方案,其减少汽车外观事故专业查勘人员的出险频率,降低查勘成本;简单交通事故拍照完成后及时快速得到定损信息,不影响城市交通;便于建立汽车外观事故标准化定损档案,统一理赔标准。附图说明图1为本专利技术一种实施例公开的基于深度神经网络的汽车外观自动定损方法的流程图;图2为本专利技术一种实施例公开的单组损伤单元进行损伤识别方法的流程图;图3为本专利技术一种实施例公开的基于Deeplab的局部车辆图片或细节图片中的总成部件及子部件识别的流程图;图4为本专利技术一种实施例公开的基于FasterRCNN的细节图片损伤区域检测的流程图。具体实施方式为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术的一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本专利技术保护的范围。下面结合附图对本专利技术做进一步的详细描述:如图1所示,本专利技术提供一种基于深度神经网络的汽车外观自动定损方法,包括:S1、手机拍摄事故车辆远/中景照片,并实时对远/中景照片进行车辆检测、车辆总成部件检测,根据车辆检测结果与车辆总成部件检测结果确认用户是否处于合适的距离内拍摄;若处于合适的距离内拍摄,则提示用户拍摄,由用户拍摄第1张局部车辆照片;其中:第1张局部车辆照片采用深度卷积网络对图片中的车辆目标及车辆总成部件进行检测,当检测到车辆目标及三个或三个以上的车辆总成部件时,同时要求车辆目标在图片中的占比超过90%时,则判定用本文档来自技高网
...

【技术保护点】
1.一种基于深度神经网络的汽车外观自动定损方法,其特征在于,包括:步骤1、手机拍摄事故车辆远/中景照片,并实时对远/中景照片进行车辆检测、车辆总成部件检测,根据车辆检测结果与车辆总成部件检测结果确认用户是否处于合适的距离内拍摄;若处于合适的距离内拍摄,则提示用户拍摄,由用户拍摄第1张局部车辆照片;步骤2、手机继续拍摄事故车辆的细节照片,并实时对细节照片中的损伤区域进行检测;当检测到损伤区域时,则提示用户拍摄,由用户拍摄第1张细节照片;拍摄完成后,继续提示用户靠近拍摄该区域,当再次检测到损伤区域时,则提示用户拍摄,由用户拍摄第2张细节照片,完成后提交当前损伤单元;步骤3、手机提交的损伤单元通过网络上传到后台服务器中,后台服务器对每组损伤单元进行损伤识别,并对多组损伤单元的识别结果进行融合,得出该事故车辆的损伤详情。

【技术特征摘要】
1.一种基于深度神经网络的汽车外观自动定损方法,其特征在于,包括:步骤1、手机拍摄事故车辆远/中景照片,并实时对远/中景照片进行车辆检测、车辆总成部件检测,根据车辆检测结果与车辆总成部件检测结果确认用户是否处于合适的距离内拍摄;若处于合适的距离内拍摄,则提示用户拍摄,由用户拍摄第1张局部车辆照片;步骤2、手机继续拍摄事故车辆的细节照片,并实时对细节照片中的损伤区域进行检测;当检测到损伤区域时,则提示用户拍摄,由用户拍摄第1张细节照片;拍摄完成后,继续提示用户靠近拍摄该区域,当再次检测到损伤区域时,则提示用户拍摄,由用户拍摄第2张细节照片,完成后提交当前损伤单元;步骤3、手机提交的损伤单元通过网络上传到后台服务器中,后台服务器对每组损伤单元进行损伤识别,并对多组损伤单元的识别结果进行融合,得出该事故车辆的损伤详情。2.如权利要求1所述的基于深度神经网络的汽车外观自动定损方法,其特征在于,在步骤1中,第1张局部车辆照片采用深度卷积网络对图片中的车辆目标及车辆总成部件进行检测,当检测到车辆目标及三个或三个以上的车辆总成部件时,同时要求车辆目标在图片中的占比超过90%时,则判定用户的拍摄距离合适。3.如权利要求1所述的基于深度神经网络的汽车外观自动定损方法,其特征在于,在步骤2中,细节照片采用深度卷积网络对图片中损伤区域进行检测,当视频中连续3帧及以上检测到损伤区域时,则判定该图片为损伤细节图片。4.如权利要求1所述的基于深度神经网络的汽车外观自动定损方法,其特征在于,在步骤3中,后台服务器通过调用车辆部件自动定损算法对每组损伤单元进行损伤识别,单组损伤单元进行损伤识别的方法包括:步骤31、用户上传损伤单元图片序列;步骤32、局部车辆图片方位识别;步骤33、局部车辆图片中车辆总成部件及子部件识别;步骤34、细节图片中车辆总成部件及子部件识别;步骤35、细节图片关联局部车辆图片;步骤36、细节图片损伤区域检测;步骤37、识别出带...

【专利技术属性】
技术研发人员:丛建亭
申请(专利权)人:深源恒际科技有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1