一种Frenet坐标多源数据的坐标统一车辆位置估测系统及方法技术方案

技术编号:37508941 阅读:41 留言:0更新日期:2023-05-07 09:48
本发明专利技术公开了一种Frenet坐标多源数据的坐标统一车辆位置估测系统及方法。本发明专利技术建立Frenet坐标系;获取每个采集时刻的车辆振动信号、车辆三维点云数据、车辆电磁波数据和车辆图像数据并无线传输至中央服务器;中央服务器根据信号解算每个采集时刻车辆感知传感器对应的车辆所处的桩号、所处的车道号、在各坐标系下的质心平面坐标,构建每个采集时刻车辆感知传感器的车辆数据、在各坐标系下的质心平面坐标;结合变换矩阵以及坐标变换,得到每个采集时刻车辆各坐标系转换至Frenet坐标系下的质心平面坐标;根据异源数据误差计算每个采集时刻车辆感知传感器对应的车辆唯一的质心平面坐标。本发明专利技术构建的多源数据坐标统一和融合方法,能有效提升车辆位置感知精度。能有效提升车辆位置感知精度。能有效提升车辆位置感知精度。

【技术实现步骤摘要】
一种Frenet坐标多源数据的坐标统一车辆位置估测系统及方法


[0001]本专利技术涉及车辆坐标转换和信息融合领域,尤其涉及一种Frenet坐标多源数据的坐标统一车辆位置估测系统及方法。

技术介绍

[0002]在智能交通领域,单一传感器虽能在一定程度上感知交通信息,但受到传感器性能的限制,获取的交通信息存在一定局限性,且受到天气、环境等因素干扰,传感器获取的车辆行驶信息在时间、空间上容易间断,无法获取每时刻高精度的车辆位置信息,从而严重制约高精度车辆轨迹数据的获取,导致无法深入挖掘交通流特性。
[0003]使用多源传感器进行融合感知是当前获取更加全面准确的交通信息的关键,目前用于车辆行驶信息采集的传感器主要包括路面、路侧两种应用场景,传感器主要包括感应类、雷达、视频设备。在多源信息融合过程中,多设备获取的原始数据格式不同、坐标系不统一,导致多源设备数据无法融合使用。
[0004]由此可见,现存技术难点是如何在道路全域实现不同感知设备所获取数据间的坐标统一及信息融合,从而构建车辆与道路、车辆与车辆之间的统一位置关系,提升感知的车辆位置信息的精度。

技术实现思路

[0005]为解决上述技术问题,本专利技术提供了一种Frenet坐标多源数据的坐标统一车辆位置估测系统及方法,将不同道路线形下,路面车辆感知传感器和路侧微波雷达、激光雷达、视频设备获取的车辆质心坐标数据统一转换至Frenet坐标系下,由此建立车辆与车辆、车辆与道路之间的位置关系,通过融合多种设备的感知结果,提升车辆位置信息的感知精度,有助于实现对全时域车辆轨迹信息的精准表达。
[0006]本专利技术系统的技术方案为一种Frenet坐标多源数据的坐标统一车辆位置估测系统,包括:
[0007]多个车辆感知传感器、多个激光雷达、多个微波雷达、多个视频设备;
[0008]所述中央服务器分别与所述的多个车辆感知传感器依次无线连接;
[0009]所述中央服务器分别与所述的多个激光雷达依次无线连接;
[0010]所述中央服务器分别与所述的多个微波雷达依次无线连接;
[0011]所述中央服务器分别与所述的多个视频设备依次无线连接;
[0012]使用道路中心线作为Frenet坐标系的参考线,建立Frenet坐标系;当道路上有车辆经过时,获取每个采集时刻的车辆振动信号、车辆三维点云数据、车辆电磁波数据、车辆图像数据并无线传输至中央服务器;中央服务器通过信号进行解算,分别得到每个采集时刻车辆感知传感器对应的车辆所处的桩号、所处的车道号、在各坐标系下的质心平面坐标,构建每个采集时刻车辆感知传感器的车辆数据、在各坐标系下的质心平面坐标;结合变换
矩阵进行变换,得到每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标,进一步进行坐标变换,得到每个采集时刻车辆各坐标系转换至Frenet坐标系下的质心平面坐标;基于多源感知设备在Frenet坐标系下表达的每个采集时刻感知到车辆的车辆感知传感器对应的车辆的质心平面坐标,根据异源数据误差大小计算每个采集时刻感知到车辆的车辆感知传感器对应的车辆唯一的质心平面坐标。
[0013]本专利技术方法的技术方案为一种Frenet坐标多源数据的坐标统一车辆位置估测方法,具体步骤如下:
[0014]步骤1:使用道路中心线作为Frenet坐标系的参考线,建立Frenet坐标系;以道路中心线起始点作为Frenet坐标系原点,沿道路方向作为Frenet坐标系的横轴S,以道路车道分布方向作为Frenet坐标系的纵轴D;
[0015]步骤2:沿道路全域各车道中心线纵向均匀间隔铺设车辆感知传感器,沿道路全域的道路两侧依次均匀间隔布设激光雷达、微波雷达、视频设备;
[0016]步骤3:当道路上有车辆经过时,车辆感知传感器获取每个采集时刻的车辆振动信号并无线传输至中央服务器、激光雷达获取每个采集时刻的车辆三维点云数据并无线传输至中央服务器、微波雷达获取每个采集时刻的车辆电磁波数据并无线传输至中央服务器、视频设备获取车辆图像数据并无线传输至中央服务器;
[0017]步骤4:中央服务器将每个采集时刻的车辆振动信号进行解算,得到每个采集时刻车辆感知传感器对应的车辆所处的桩号、每个采集时刻车辆感知传感器对应的车辆所处的车道号;将每个采集时刻的车辆三维点云数据进行解算,得到每个采集时刻车辆感知传感器对应的车辆在激光雷达坐标系下质心平面坐标;将每个采集时刻的车辆电磁波数据进行解算,得到每个采集时刻车辆感知传感器对应的车辆在微波雷达坐标系下质心平面坐标;将每个采集时刻的车辆图像数据分别进行解算,得到每个采集时刻车辆感知传感器对应的车辆在像素坐标系下质心平面坐标;构建每个采集时刻车辆感知传感器的车辆数据、每个采集时刻车辆在各坐标系下的质心平面坐标;
[0018]步骤5:将每个采集时刻车辆感知传感器的车辆数据进行转换,得到每个采集时刻车辆在Frenet坐标系下的坐标;获取每个采集时刻感知到车辆的每个车辆感知传感器的感知路段范围,在每个采集时刻感知到车辆的每个车辆感知传感器的感知路段范围内任意选取4个特征基点;获取激光雷达、微波雷达在UTM平面坐标系下的平面坐标,获取每个特征基点在UTM平面坐标系下的平面坐标、在激光雷达坐标系下的平面坐标、在微波雷达坐标系下的平面坐标、在像素坐标系下的平面坐标;根据任意一个特征基点在UTM平面坐标系下的平面坐标、激光雷达和微波雷达在UTM平面坐标系下的平面坐标、该特征基点在激光雷达坐标系和微波雷达坐标系下的平面坐标,获取激光雷达坐标系、微波雷达坐标系与UTM平面坐标系的变换矩阵,将4个特征基点通过透视变换获取像素坐标系与UTM平面坐标系的变换矩阵;将每个采集时刻车辆在各坐标系下的质心平面坐标结合对应的坐标系与UTM平面坐标系的变换矩阵进行变换,得到每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标;将每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标进行变换,得到每个采集时刻车辆各坐标系转换至Frenet坐标系下的质心平面坐标;
[0019]步骤6:基于多源感知设备在Frenet坐标系下表达的每个采集时刻感知到车辆的车辆感知传感器对应的车辆的质心平面坐标,根据异源数据误差大小计算每个采集时刻感
知到车辆的车辆感知传感器对应的车辆唯一的质心平面坐标;
[0020]作为优选,步骤1所述Frenet坐标系的横轴S上的坐标表示车辆在道路上行驶的累积距离;
[0021]步骤1所述Frenet坐标系的纵轴D上的坐标表示车辆偏离道路中心线的距离;
[0022]作为优选,步骤4所述中央服务器将每个采集时刻的车辆振动信号进行解算,具体如下:
[0023]将每个采集时刻的车辆感知传感器所处的桩号作为每个采集时刻车辆感知传感器对应的车辆所处的桩号,定义为:
[0024][0025]k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
][0026]其中,l为采集时刻本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种Frenet坐标多源数据的坐标统一车辆位置估测系统,其特征在于,包括:一种Frenet坐标多源数据的坐标统一车辆位置估测系统,包括:多个车辆感知传感器、多个激光雷达、多个微波雷达、多个视频设备;所述中央服务器分别与所述的多个车辆感知传感器依次无线连接;所述中央服务器分别与所述的多个激光雷达依次无线连接;所述中央服务器分别与所述的多个微波雷达依次无线连接;所述中央服务器分别与所述的多个视频设备依次无线连接;使用道路中心线作为Frenet坐标系的参考线,建立Frenet坐标系;当道路上有车辆经过时,获取每个采集时刻的车辆振动信号、车辆三维点云数据、车辆电磁波数据、车辆图像数据并无线传输至中央服务器;中央服务器通过信号进行解算,分别得到每个采集时刻车辆感知传感器对应的车辆所处的桩号、所处的车道号、在各坐标系下的质心平面坐标,构建每个采集时刻车辆感知传感器的车辆数据、在各坐标系下的质心平面坐标;结合变换矩阵进行变换,得到每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标,进一步进行坐标变换,得到每个采集时刻车辆各坐标系转换至Frenet坐标系下的质心平面坐标;基于多源感知设备在Frenet坐标系下表达的每个采集时刻感知到车辆的车辆感知传感器对应的车辆的质心平面坐标,根据异源数据误差大小计算每个采集时刻感知到车辆的车辆感知传感器对应的车辆唯一的质心平面坐标。2.一种利用权利要求1所述的Frenet坐标多源数据的坐标统一车辆位置估测系统进行Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征在于,包括以下步骤:步骤1:使用道路中心线作为Frenet坐标系的参考线,建立Frenet坐标系;步骤2:沿道路全域各车道中心线纵向均匀间隔铺设车辆感知传感器,沿道路全域的道路两侧依次均匀间隔布设激光雷达、微波雷达、视频设备;步骤3:当道路上有车辆经过时,车辆感知传感器获取每个采集时刻的车辆振动信号并无线传输至中央服务器、激光雷达获取每个采集时刻的车辆三维点云数据并无线传输至中央服务器、微波雷达获取每个采集时刻的车辆电磁波数据并无线传输至中央服务器、视频设备获取车辆图像数据并无线传输至中央服务器;步骤4:中央服务器将车辆感知传感器、激光雷达、微波雷达、视频设备每个采集时刻的信号分别进行解算,得到每个采集时刻车辆感知传感器对应的车辆所处的桩号、所处的车道号、车辆在各坐标系下质心平面坐标,构建每个采集时刻车辆感知传感器的车辆数据、每个采集时刻车辆在各坐标系下的质心平面坐标;步骤5:将每个采集时刻车辆感知传感器的车辆数据进行转换,得到每个采集时刻车辆在Frenet坐标系下的坐标;结合特征基点通过投影变换分别获取激光雷达坐标系、微波雷达坐标系、像素坐标系与UTM平面坐标系的变换矩阵;将每个采集时刻车辆在各坐标系下的质心平面坐标结合对应的坐标系与UTM平面坐标系的变换矩阵进行变换,得到每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标;将每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标进行变换,得到每个采集时刻车辆各坐标系转换至Frenet坐标系下的质心平面坐标;步骤6:基于多源感知设备在Frenet坐标系下表达的每个采集时刻感知到车辆的车辆感知传感器对应的车辆的质心平面坐标,根据异源数据误差大小计算每个采集时刻感知到
车辆的车辆感知传感器对应的车辆唯一的质心平面坐标。3.根据权利要求2所述的Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征在于:步骤1所述建立Frenet坐标系,具体如下:以道路中心线起始点作为Frenet坐标系原点,沿道路方向作为Frenet坐标系的横轴S,以道路车道分布方向作为Frenet坐标系的纵轴D;所述Frenet坐标系的横轴S上的坐标表示车辆在道路上行驶的累积距离;所述Frenet坐标系的纵轴D上的坐标表示车辆偏离道路中心线的距离。4.根据权利要求3所述的Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征在于:步骤4所述将车辆感知传感器、激光雷达、微波雷达、视频设备每个采集时刻的信号分别进行解算,得到每个采集时刻车辆感知传感器对应的车辆所处的桩号、所处的车道号、车辆在各坐标系下质心平面坐标,具体如下:将每个采集时刻的车辆振动信号进行解算,得到每个采集时刻车辆感知传感器对应的车辆所处的桩号、每个采集时刻车辆感知传感器对应的车辆所处的车道号;将每个采集时刻的车辆三维点云数据进行解算,得到每个采集时刻车辆感知传感器对应的车辆在激光雷达坐标系下质心平面坐标;将每个采集时刻的车辆电磁波数据进行解算,得到每个采集时刻车辆感知传感器对应的车辆在微波雷达坐标系下质心平面坐标;将每个采集时刻的车辆图像数据分别进行解算,得到每个采集时刻车辆感知传感器对应的车辆在像素坐标系下质心平面坐标。5.根据权利要求4所述的Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征在于:步骤4所述中央服务器将每个采集时刻的车辆振动信号进行解算,具体如下:将每个采集时刻的车辆感知传感器所处的桩号作为每个采集时刻车辆感知传感器对应的车辆所处的桩号,定义为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆所处的桩号,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号;将每个采集时刻的车辆感知传感器所处的车道号作为每个采集时刻车辆感知传感器对应的车辆所处的车道号,定义为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆所处的车道号,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆
感知传感器的序号;步骤4所述将每个采集时刻的车辆三维点云数据进行解算,具体如下:中央服务器使用基于激光点云的深度学习3D目标检测算法对每个采集时刻的车辆三维点云数据进行车辆检测,得到每个采集时刻车辆感知传感器对应的车辆在激光雷达坐标系下质心平面坐标,定义为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在激光雷达坐标系下质心平面坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在激光雷达坐标系下质心平面坐标的X轴坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在激光雷达坐标系下质心平面坐标的Y轴坐标,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号;步骤4所述将每个采集时刻的车辆电磁波数据进行解算,具体如下:所述中央服务器根据每个采集时刻的电磁波频谱对每个采集时刻的微波雷达感知的电磁波进行解析,得到每个采集时刻车辆感知传感器对应的车辆在微波雷达坐标系下质心平面坐标,定义为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在微波雷达坐标系下质心平面坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在微波雷达坐标系下质心平面坐标的X轴坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在微波雷达坐标系下质心平面坐标的Y轴坐标,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号;步骤4所述将每个采集时刻的车辆图像数据分别进行解算,具体如下:所述中央服务器使用深度学习2D目标检测算法对每个采集时刻的车辆图像数据进行检测,得到每个采集时刻车辆感知传感器对应的车辆在像素坐标系下质心平面坐标,定义为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在像素坐标系下质心平面坐标,表示第k个采集时刻第ID
j,k
个车辆
感知传感器对应的车辆在像素坐标系下质心平面坐标的X轴坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在像素坐标系下质心平面坐标的Y轴坐标,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号;其中,i=0代表车辆感知传感器,i=1代表激光雷达,i=2代表微波雷达,i=3代表视频设备。6.根据权利要求5所述的Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征在于:步骤4所述每个采集时刻车辆感知传感器的车辆数据,定义为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆数据,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号;步骤4所述每个采集时刻车辆在各坐标系下的质心平面坐标,定义为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,i=1代表激光雷达,i=2代表微波雷达,i=3代表视频设备,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在i坐标系下质心平面坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在i坐标系下质心平面坐标的X轴坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在i坐标系下质心平面坐标的Y轴坐标,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号。7.根据权利要求6所述的Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征在于:步骤5所述结合特征基点通过投影变换分别获取激光雷达坐标系、微波雷达坐标系、像素坐标系与UTM平面坐标系的变换矩阵,具体如下:获取每个采集时刻感知到车辆的每个车辆感知传感器的感知路段范围,在每个采集时刻感知到车辆的每个车辆感知传感器的感知路段范围内任意选取4个特征基点;获取激光雷达、微波雷达在UTM平面坐标系下的平面坐标,获取每个特征基点在UTM平面坐标系下的平面坐标、在激光雷达坐标系下的平面坐标、在微波雷达坐标系下的平面坐标、在像素坐标系下的平面坐标;根据任意一个特征基点在UTM平面坐标系下的平面坐标、激光雷达和微波雷达在UTM平面坐标系下的平面坐标、该特征基点在激光雷达坐标系和微波雷达坐标系下的平面坐标,获取激光雷达坐标系、微波雷达坐标系与UTM平面坐标系的变换矩阵,将4个特征基点通过透视变换获取像素坐标系与UTM平面坐标系的变换矩阵。8.根据权利要求7所述的Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征
在于:步骤5中所述将每个采集时刻车辆感知传感器的车辆数据进行转换,具体如下:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在Frenet坐标系下质心平面坐标的S轴坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆在Frenet坐标系下质心平面坐标的D轴坐标,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆所处的桩号,α
o
表示Frenet坐标系原点所处的桩号,表示第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆所处的车道号,A表示道路单向车道总数,H表示车道宽度,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号;步骤5所述将每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标进行解算得到每个采集时刻车辆各坐标系转换至Frenet坐标系下的质心平面坐标,具体如下:步骤5.1:获取每个采集时刻感知到车辆的每个车辆感知传感器对应的路段类型;步骤5.2:建立每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系;所述建立每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系,具体如下:以每个采集时刻感知到车辆的每个车辆感知传感器对应的路段中心线起始点作为路段坐标系原点,以车道分布方向为u轴,以道路方向为v轴,以构建每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系;步骤5.3:建立UTM平面坐标系与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系的坐标转换关系,具体如下:所述建立UTM平面坐标系与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系的坐标转换关系,具体如下:根据每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系原点在UTM平面坐标系中的平面坐标、UTM平面坐标系与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系之间的偏转角构建UTM平面坐标系与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系的坐标转换关系;步骤5.4:将每个采集时刻车辆各坐标系转换至UTM平面坐标系下的质心平面坐标结合坐标转换关系进行转换,得到每个采集时刻车辆各坐标系转换至每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系下的质心平面坐标;步骤5.5:结合每个采集时刻感知到车辆的每个车辆感知传感器对应的路段类型,计算由激光雷达、微波雷达、视频设备感知的每个采集时刻感知到车辆的每个车辆感知传感器对应的车辆与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系下路段
起点位置的纵向距离、横向偏移量;步骤5.6:结合由激光雷达、微波雷达、视频设备感知的每个采集时刻感知到车辆的每个车辆感知传感器对应的车辆与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系下路段中心线起点位置的纵向距离、横向偏移量,计算得到每个采集时刻车辆各坐标系转换至Frenet坐标系下的质心平面坐标。9.根据权利要求8所述的Frenet坐标多源数据的坐标统一车辆位置估测方法,其特征在于:步骤5.5所述计算由激光雷达、微波雷达、视频设备感知的每个采集时刻感知到车辆的每个车辆感知传感器对应的车辆与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系下路段起点位置的纵向距离、横向偏移量,具体如下:若每个采集时刻感知到车辆的每个车辆感知传感器对应的路段类型为直线,则:所述由激光雷达、微波雷达、视频设备感知的每个采集时刻感知到车辆的每个车辆感知传感器对应的车辆与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系下路段中心线起点位置的纵向距离为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,i=1代表激光雷达,i=2代表微波雷达,i=3代表视频设备,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示由i设备感知的第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆与第k个采集时刻第ID
j,k
个感知到车辆的车辆感知传感器对应的路段坐标系下路段中心线起点位置的纵向距离,表示第k个采集时刻第ID
j,k
个感知到车辆的车辆感知传感器对应的车辆在i坐标系下经UTM平面坐标转换至第k个采集时刻第ID
j,k
个感知到车辆的车辆感知传感器对应的路段坐标系下质心平面坐标的u轴坐标,j表示N
k
个感知到车辆的车辆感知传感器中第j个感知到车辆的车辆感知传感器的序号;所述由激光雷达、微波雷达、视频设备感知的每个采集时刻感知到车辆的每个车辆感知传感器对应的车辆与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系下路段中心线起点位置的横向偏移量为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,i=1代表激光雷达,i=2代表微波雷达,i=3代表视频设备,l为采集时刻的数量,K表示车辆感知传感器的数量,N
k
表示第k个采集时刻感知到车辆的车辆感知传感器的数量,表示由i设备感知的第k个采集时刻第ID
j,k
个车辆感知传感器对应的车辆与第k个采集时刻第ID
j,k
个感知到车辆的车辆感知传感器对应的路段坐标系下路段中心线起点位置的横向偏移量,表示第k个采集时刻第ID
j,k
个感知到车辆的车辆感知传感器对应的车辆在i坐标系下经UTM平面坐标转换至第k个采集时刻第ID
j,k
个感知到车辆的车辆感知传感器对应的路段坐标系下质心平面坐标的v轴坐标,j表示N
k
个感知到车辆的车辆感知
传感器中第j个感知到车辆的车辆感知传感器的序号;若每个采集时刻感知到车辆的每个车辆感知传感器对应的路段类型为圆曲线,则:所述由激光雷达、微波雷达、视频设备感知的每个采集时刻感知到车辆的每个车辆感知传感器对应的车辆与每个采集时刻感知到车辆的每个车辆感知传感器对应的路段坐标系下路段中心线起点位置的纵向距离为:k∈[1,l],ID
j,k
∈[1,K],j∈[1,N
k
]其中,i=1代表激光雷...

【专利技术属性】
技术研发人员:吕能超刘春青文家强吴超仲
申请(专利权)人:武汉理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1