一种视觉标定方法、车机及汽车技术

技术编号:23162630 阅读:20 留言:0更新日期:2020-01-21 22:09
本发明专利技术实施例涉及汽车电子技术领域,公开了一种视觉标定方法,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;将所述第三视频数据输出到所述A柱的显示屏。通过对车外摄像头拍摄的视频数据进行标定,本发明专利技术能够使透明A柱更好地呈现实际场景。

A visual calibration method, vehicle machine and vehicle

【技术实现步骤摘要】
一种视觉标定方法、车机及汽车
本专利技术涉及汽车电子
,特别是涉及一种视觉标定方法、车机及汽车。
技术介绍
A柱,英文名是A-pillar,是车辆左前方和右前方连接车顶和前舱的连接柱,在发动机舱和驾驶舱之间,左右后视镜的上方。由于A柱在发动机舱和驾驶舱之间,左右后视镜的上方,会遮挡驾驶者的一部分转弯视界,尤其是左转弯,行驶过程中由A柱对驾驶员视野的遮挡形成的的视野盲区,称为A柱盲区。由于A柱的截面积过小会导致车身强度不足,太大又会影响驾驶员视野。目前,通过增强现实技术(AugmentedReality,AR)在A柱外部则安装摄像头,在A柱内部安装显示屏,通过将摄像头画面传输到A柱内部,最终实现了A柱部分的透明化,从而既保持了传统A柱的牢固性,又能让驾驶员的视线能清晰地穿透它看清路况。但是,目前A柱呈现的视频图像真实度不高,由于人眼和摄像头的光学参数不一样,直接显示裁剪拼接后的图像必然跟在没有A柱的情况下人眼看到的图像不一致,导致视觉误差较大。有鉴于此,现有技术有待改进和提高。
技术实现思路
本专利技术实施例旨在提供一种视觉标定方法、车机及汽车,其解决了目前A柱呈现的视频图像真实度不高的技术问题,使A柱更好地呈现实际场景。为解决上述技术问题,本专利技术实施例提供以下技术方案:第一方面,本专利技术实施例提供一种视觉标定方法,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。在一些实施例中,所述车内摄像头和车外摄像头均为双目摄像头,所述获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据,包括:获取所述车外摄像头拍摄的两路车外视频数据,对所述两路车外视频数据进行拼接,生成第一视频数据;获取所述车内摄像头拍摄的两路车内视频数据,对所述两路车内视频数据进行拼接,生成第二视频数据。在一些实施例中,所述对所述两路车外视频数据进行拼接,生成第一视频数据,包括:搜索所述车外摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;对所述第一合并视频数据进行亮度混合,生成第一视频数据。在一些实施例中,所述对所述两路车内视频数据进行拼接,生成第二视频数据,包括:搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;对所述第二合并视频数据进行亮度混合,生成第二视频数据。在一些实施例中,所述将所述第三视频数据输出到所述A柱的显示屏之前,所述方法还包括:根据环境光的强度,对所述第三视频数据进行光线补偿处理,所述将所述第三视频数据输出到所述A柱的显示屏,包括:将进行光线补偿处理后的第三视频数据输出到所述A柱的显示屏。在一些实施例中,所述根据环境光的强度,对所述第三视频数据进行光线补偿处理,包括:预设环境光强度中间值;判断所述环境光的强度是否大于所述环境光强度中间值;若是,则降低所述第三视频数据的光强度;若否,则提高所述第三视频数据的光强度。在一些实施例中,所述对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系,包括:计算摄像头内参数矩阵以及摄像头外参数矩阵;根据所述摄像头内参数矩阵以及摄像头外参数矩阵,计算世界坐标系与图像坐标系的单应性矩阵;根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系。在一些实施例中,所述根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系之后,所述方法还包括:对所述世界坐标系到像素坐标系的像素点进行最大似然估计,生成所述像素点的最优解。第二方面,本专利技术实施例提供一种视觉标定装置,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述装置包括:第一视频数据获取单元,用于获取所述汽车的车外摄像头拍摄的第一视频数据;第二视频数据获取单元,用于获取所述汽车的车内摄像头拍摄的第二视频数据;映射关系单元,用于对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;第三视频数据生成单元,用于根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;显示屏显示单元,用于将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。在一些实施例中,所述车内摄像头和车外摄像头均为双目摄像头,所述第一视频数据获取单元,包括:两路车外视频数据获取模块,用于获取所述车外摄像头拍摄的两路车外视频数据;第一视频数据拼接模块,用于对所述两路车外视频数据进行拼接,生成第一视频数据。在一些实施例中,所述第二视频数据获取单元,包括:两路车内视频数据获取模块,用于获取所述车内摄像头拍摄的两路车内视频数据;第二视频数据拼接模块,用于对所述两路车内视频数据进行拼接,生成第二视频数据。在一些实施例中,所述第一视频数据拼接模块,具体用于:搜索所述车内摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;对所述第一合并视频数据进行亮度混合,生成第一视频数据。在一些实施例中,所述第二视频数据拼接模块,具体用于:搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;对所述第二合并视频数据进行亮度混合,生成第二视频数据。在一些实施例中,所述装置还包括:光线补偿本文档来自技高网...

【技术保护点】
1.一种视觉标定方法,其特征在于,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:/n获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;/n对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;/n根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;/n将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。/n

【技术特征摘要】
1.一种视觉标定方法,其特征在于,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:
获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;
对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;
根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;
将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。


2.根据权利要求1所述的方法,其特征在于,所述车内摄像头和车外摄像头均为双目摄像头,所述获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据,包括:
获取所述车外摄像头拍摄的两路车外视频数据,对所述两路车外视频数据进行拼接,生成第一视频数据;
获取所述车内摄像头拍摄的两路车内视频数据,对所述两路车内视频数据进行拼接,生成第二视频数据。


3.根据权利要求2所述的方法,其特征在于,所述对所述两路车外视频数据进行拼接,生成第一视频数据,包括:
搜索所述车外摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;
通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;
合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;
对所述第一合并视频数据进行亮度混合,生成第一视频数据。


4.根据权利要求2所述的方法,其特征在于,所述对所述两路车内视频数据进行拼接,生成第二视频数据,包括:
搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;
通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;
合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;
对所述第二合并视频数据进行亮度混合,生成第二视频数据。


5.根据权利要求1所述的方法,其特征在于,所述将所述第...

【专利技术属性】
技术研发人员:汪大崴康栋
申请(专利权)人:深圳疆程技术有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1