System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种多尺度特征融合的大规模点云场景重识别方法技术_技高网
当前位置: 首页 > 专利查询>东北大学专利>正文

一种多尺度特征融合的大规模点云场景重识别方法技术

技术编号:40559816 阅读:11 留言:0更新日期:2024-03-05 19:22
本发明专利技术属于场景重识别领域,公开了一种多尺度特征融合的大规模点云场景重识别方法。将点云序列进行静态点云生成处理,滤除场景中的近景动态物体并得到纯净的静态点云;将纯净的静态点云输入至描述符编码网络中,得到点云全局描述符并构建数据库;在查询过程中,采用最近邻算法找到数据库中最相似的点云。本发明专利技术实现了点云场景重识别在计算效率和准确性方面的平衡。静态点云生成方法以去除动态物体的遮挡影响,得到连续帧的拼接静态点云。点云描述符编码网络包含空间变换模块、多尺度特征融合模块、CapsNet模块和GeM池化层。本发明专利技术凭借其计算高效性、高准确率和鲁棒性可以有效用于实时点云全局定位任务。

【技术实现步骤摘要】

本专利技术涉及场景重识别,尤其涉及一种多尺度特征融合的大规模点云场景重识别方法


技术介绍

1、场景重识别是移动机器人和自动驾驶领域的重要任务,也是同时定位与建图(slam)技术中回环检测和重定位的技术基础。在过去的二十年间,场景重识别经过了长足的发展,衍生出了一系列基于视觉的方法。然而季节、视角、光照、天气等因素始终限制着视觉场景重识别的性能。相较视觉而言,激光雷达基本不会受到光照变化的影响。随着激光传感器的快速发展,点云场景识别方法被广泛研究。激光点云克服了视觉图像的一些缺陷,但仍然面临很多挑战。一方面,室外场景不可避免会存在许多动态物体,近处的动态物体会遮挡激光雷达传感器的视野,导致出现大范围盲区,从而影响点云场景的完整性。并且动态物体的出现具有随机性,当构建查询数据库时点云场景中存在动态物体,而在检索时当前场景不存在动态物体,就会导致点云检索失败,反之亦然。另一方面,室外场景通常包含建筑、树木、车辆、行人以及其他复杂元素,不同元素具有不同的尺寸,在点云数据中表现在物体点的数量差异上。在单帧点云中还会呈现出近处密集、远处稀疏的特点。这些因素都会对场景重识别的性能产生严重影响。此外,点云中提取到的若干特征并不是孤立存在的,鲜有研究关注点云特征之间的相关性。虽然当前涌现了大量基于点云的场景重识别算法,但是大规模室外场景重识别仍然是一个未解决的问题。

2、文献《luo l,cao s y,han b,et al.bvmatch:lidar-based place recognitionusing bird's-eye view images[j].ieee robotics and automation letters,vol.6,no.3,pp.6076-6083.2021.》将3d点云投影到鸟瞰图像,然后使用一组log-gabor滤波器来构建最大索引图,对图像中结构的方向信息进行编码。虽然提高了描述符生成的计算效率,但是无法避免场景垂直方向信息的缺失。文献《komorowski j.minkloc3d:point cloudbased large-scale place recognition[c]//proceedings of the ieee/cvf winterconference on applications of computer vision,pp.1790-1799.2021.》基于稀疏体素化点云表示和稀疏3d卷积来计算判别性3d点云描述符,虽然保证了计算实时性,但是无法有效应对场景的旋转变化。文献《li l,kong x,zhao x,et al.rinet:efficient 3dlidar-based place recognition using rotation invariant neural network[j].ieeerobotics and automation letters,vol.7,no.2,pp.4321-4328.2022.》结合语义和几何特征来提高描述能力,然后采用旋转不变孪生神经网络来预测描述符之间的相似度;利用语义和几何信息的组合保证信息的完整性,但是在计算效率上低于其他方法。文献《zhaos,yin p,yi g,et al.spherevlad++:attention-based and signal-enhanced viewpointinvariant descriptor[j].ieee robotics and automation letters,vol.8,no.1,pp.256-263.2023.》在多个独特区域的球形视角上投影点云,并捕获局部特征及其与全局3d几何分布的依赖关系之间的上下文连接,并且具备了旋转不变性。通过球面卷积对局部方向等效特征进行编码,但是没有利用特征间的关联性。综上所述,当前研究不能同时保证旋转不变性、实时性以及完整的场景表达,尚未有效处理动态物体干扰和利用特征间关联性。


技术实现思路

1、针对当前点云场景重识别任务中动态物体对点云遮挡影响点云结构,网络的单一感受野无法充分提取点云特征以及特征之间的相关性未被充分利用等问题,本专利技术提出一种多尺度特征融合的大规模点云场景重识别方法,有效利用点云特征间关联性进行编码,能够抵抗环境中各种动态物体的影响,在描述符生成计算效率和点云检索准确度方面实现均衡。

2、本专利技术的技术方案:一种多尺度特征融合的大规模点云场景重识别方法,将点云序列进行静态点云生成处理,滤除场景中的近景动态物体并得到纯净的静态点云;将纯净的静态点云输入至描述符编码网络中,得到点云全局描述符并构建数据库;在查询过程中,采用最近邻算法找到数据库中最相似的点云。

3、所述静态点云生成具体如下:

4、提取三帧连续点云pi-1、pi和pi+1,通过imu传感器参数将pi的前一帧点云和后一帧点云转换到pi的位置,获得变换后的点云pti-1和pti+1;变换后的点云三维坐标投影到二维图像坐标中,以点云中各点到激光雷达传感器中心的距离值填充图像像素,得到点云范围图像mi;设置距离阈值τ,距离值小于距离阈值τ的范围为近距离范围,保留近距离范围物体得到m′i,超过距离阈值τ的像素值设置为0;

5、mi(u,v)=0,s.t.mi(u,v)>τ.

6、通过比较像素差异,对相邻的两帧距离图像进行差分,将差分值小于差异阈值γ的值保留为差异图像gi;

7、

8、差异图像中不为0的元素设置检测区域,标记满足下式的像素坐标,指的是检测区域矩阵,l0指的是0范数;(α,β)是检测区域的宽度和高度,δ是阈值参数;

9、

10、将检测得到的图像像素追溯到各帧点云坐标中,对点云进行区域生长聚类,并滤除动态物体,得到静态环境点云;将三帧连续的静态点云按照位姿变换融合得到最终纯净的静态点云p’i。

11、所述描述符编码网络包括空间变换模块、多尺度特征融合模块msff、capsnet模块和gem池化层,四者依次连接;所述空间变换模块由t-net构成;所述多尺度特征融合模块由不同层数的edgeconv和eca注意力模块融合构成;所述capsnet模块包括特征构建层、初级胶囊层和潜在胶囊层;所述gem池化层为单层结构。

12、所述空间变换模块为t-net网络;纯净的静态点云输入至t-net中进行空间变换;所述t-net通过学习现有点云的旋转,生成一个仿射变换矩阵,对纯净的静态点云的变化进行规范化处理。

13、所述多尺度特征融合模块msff由不同层数的edgeconv和eca注意力融合构成,共包含三个分支;第一分支为第一层级edgeconv与第一eca注意力层连接;第二分支为第二层级edgeconv与第二eca注意力层连接,所述第二层级edgeconv的输入端连接第一层级edgeconv输出端;第三分支为第三层级edgeconv与第三eca注意力层连接,所述第三层级edgeconv的输入端连接第二本文档来自技高网...

【技术保护点】

1.一种多尺度特征融合的大规模点云场景重识别方法,其特征在于,将点云序列进行静态点云生成处理,滤除场景中的近景动态物体并得到纯净的静态点云;将纯净的静态点云输入至描述符编码网络中,得到点云全局描述符并构建数据库;在查询过程中,采用最近邻算法找到数据库中最相似的点云。

2.根据权利要求1所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述静态点云生成具体如下:

3.根据权利要求2所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述描述符编码网络包括空间变换模块、多尺度特征融合模块MSFF、CapsNet模块和GeM池化层,四者依次连接;所述空间变换模块由T-net构成;所述多尺度特征融合模块由不同层数的EdgeConv和ECA注意力模块融合构成;所述CapsNet模块包括特征构建层、初级胶囊层和潜在胶囊层;所述GeM池化层为单层结构。

4.根据权利要求3所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述空间变换模块为T-net网络;纯净的静态点云输入至T-net中进行空间变换;所述T-Net通过学习现有点云的旋转,生成一个仿射变换矩阵,对纯净的静态点云的变化进行规范化处理。

5.根据权利要求3或4所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述多尺度特征融合模块MSFF由不同层数的EdgeConv和ECA注意力融合构成,共包含三个分支;第一分支为第一层级EdgeConv与第一ECA注意力层连接;第二分支为第二层级EdgeConv与第二ECA注意力层连接,所述第二层级EdgeConv的输入端连接第一层级EdgeConv输出端;第三分支为第三层级EdgeConv与第三ECA注意力层连接,所述第三层级EdgeConv的输入端连接第二层级EdgeConv输出端;

6.根据权利要求5所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述MSFF模块第i个分支,xi表示各分支ECA注意力处理后的特征,将各分支ECA注意力处理后的特征xi∈RN与加权向量k∈RN进行元素乘积,得到融合的特征,融合的特征输入至CapsNet模块;表示从全局描述符到共享权重向量的线性映射,GAP(.)表示全局平均池化;

7.根据权利要求6所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述CapsNet模块包括胶囊构建层、初级胶囊层和潜在胶囊层;CapsNet模块中的各个网络层以向量形式存储特征,利用动态路由机制将初级胶囊层中所储存的向量映射到潜在胶囊层,用于隐式学习特征之间的关联;最终输出点云的全局特征;点云的全局特征经GeM池化层聚合得到256维度的点云全局描述符。

8.根据权利要求7所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述描述符编码网络的损失函数为三元组损失函数;

...

【技术特征摘要】

1.一种多尺度特征融合的大规模点云场景重识别方法,其特征在于,将点云序列进行静态点云生成处理,滤除场景中的近景动态物体并得到纯净的静态点云;将纯净的静态点云输入至描述符编码网络中,得到点云全局描述符并构建数据库;在查询过程中,采用最近邻算法找到数据库中最相似的点云。

2.根据权利要求1所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述静态点云生成具体如下:

3.根据权利要求2所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述描述符编码网络包括空间变换模块、多尺度特征融合模块msff、capsnet模块和gem池化层,四者依次连接;所述空间变换模块由t-net构成;所述多尺度特征融合模块由不同层数的edgeconv和eca注意力模块融合构成;所述capsnet模块包括特征构建层、初级胶囊层和潜在胶囊层;所述gem池化层为单层结构。

4.根据权利要求3所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述空间变换模块为t-net网络;纯净的静态点云输入至t-net中进行空间变换;所述t-net通过学习现有点云的旋转,生成一个仿射变换矩阵,对纯净的静态点云的变化进行规范化处理。

5.根据权利要求3或4所述的多尺度特征融合的大规模点云场景重识别方法,其特征在于,所述多尺度特征融合模块msff由不同层数的edgeconv和eca注意力...

【专利技术属性】
技术研发人员:张云洲张金鹏田瑞荣磊
申请(专利权)人:东北大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1