当前位置: 首页 > 专利查询>南京大学专利>正文

一种用于3D场景理解的点云多模态特征融合网络方法技术

技术编号:34039609 阅读:12 留言:0更新日期:2022-07-06 13:09
本发明专利技术提供了一种用于3D场景理解的点云多模态特征融合网络方法,包括以下步骤:步骤1:收集现有的点云数据集,其中数据集包括S3DIS数据集和ModelNet40数据集,数据集中的数据包括含颜色信息的点云数据;步骤2:根据点云数据从前视图、后视图、顶视图、底视图、右侧视图、左侧视图生成其对应的多视图的点云投影图像和点频图像;步骤3:使用PointNet++提取点云的全局特征和部分局部特征;步骤4:使用VGG16分别提取不同的视图图像特征并聚合成一个全局特征;步骤5:将点云分支和图像分支的特征进行拼接合并;步骤6:将拼接后的特征通过两个1x1的卷积层融合点云特征和图像特征;步骤7:将步骤6得到的融合特征特征进行逐位加操作;步骤8:将图像特征和步骤7得到的特征进行拼接合并;步骤9:重复步骤6、7、8两次后得到最后的融合特征;步骤10:对于步骤9的输出的特征使用语义分割网络预测点云语义信息,使用标注信息进行监督训练;步骤11:对于步骤9的输出的特征使用分类预测点云类别信息,使用标注信息进行监督训练;步骤12:点云语义分割和类别的显示,本发明专利技术是一个精度更高且更加鲁棒的点云语义分割模型,可用于绝大多数的室内场景理解任务中。任务中。

A point cloud multimodal feature fusion network method for 3D scene understanding

【技术实现步骤摘要】
一种用于3D场景理解的点云多模态特征融合网络方法


[0001]本专利技术属于人工智能领域,涉及一种用于3D场景理解的点云多模态特征融合网络方法。

技术介绍

[0002]近些年来,语义分割和场景理解在自动驾驶、无人机、定位与建图(SLAM)、机器人等相关的人工智能领域得到广泛的应用。同时,3D点云数据正在迅速增长,无论是源于CAD模型还是来自LiDAR传感器或RGBD相机的扫描点云,无处不在。 另外,大多数系统直接获取3D点云而不是拍摄图像并进行处理。因此,点云的场景理解逐步变得至关重要。然而,由于实际环境的复杂性和深度图像的不准确性,点云数据的场景理解仍然存在许多挑战。点云的模型可以初步提取全局特征和部分局部特征,而二维图像可以很好的提取多尺度的不同视图中的特征。图像作为点云的二维表现形式,因此,采用一种新颖的互补的特征融合方式至关重要。
[0003]
技术实现思路
:由于利用图像相关信息可以帮助提升点云语义分割精度与效果,目前的大多数的语义分割方法都使用了图像进行提取特征或有监督训练。
[0004]本方法提出了一种用于3D场景理解的点云多模态特征融合网络方法,旨在处理点云特征和图像特征的多模态融合进行监督训练,最终得到一个精度更高且更加鲁棒的点云语义分割模型。
[0005]本专利技术提出一种用于3D场景理解的点云多模态特征融合网络方法,包括以下步骤:步骤1:收集现有的点云数据集,其中数据集包括S3DIS数据集和ModelNet40数据集,数据集中的数据包括含颜色信息的点云数据;步骤2:根据点云数据从前视图、后视图、顶视图、底视图、右侧视图、左侧视图生成其对应的多视图的点云投影图像和点频图像;步骤3:使用PointNet++提取点云的全局特征和部分局部特征;步骤4:使用VGG16分别提取不同的视图图像特征并聚合成一个全局特征;步骤5:将点云分支和图像分支的特征进行拼接合并;步骤6:将拼接后的特征通过两个1x1的卷积层融合点云特征和图像特征;步骤7:将步骤6得到的融合特征和拼接特征进行逐位加操作;步骤8:将图像特征和步骤7得到的特征进行拼接合并;步骤9:重复步骤6、7、8两次后得到最后的融合特征;步骤10:对于步骤9输出的特征使用语义分割网络预测点云语义信息,使用标注信息进行监督训练;步骤11:对于步骤9输出的特征使用分类预测点云类别信息,使用标注信息进行监督训练;
步骤12:显示点云的3D场景理解效果图。
[0006]进一步地,步骤1包括如下步骤:步骤1

1:下载现有的S3DIS数据集和ModelNet40数据集;步骤1

2:处理获取点云数据。
[0007]进一步地,步骤2包括如下步骤:步骤2

1:从前视图、后视图、顶视图、底视图、右侧视图、左侧视图分别投影点云数据;步骤2

2:生成其对应的多视图图像。
[0008]进一步地,步骤3包括以下步骤:步骤3

1:构造PointNet++图像特征提取网络并输入原始点云数据提取点云特征,并加载在预训练模型参数;步骤3

2:PointNet++网络首部主要分为sample&grouping和pointnet组成的set abstraction对点云进行局部的全局特征提取。
[0009]进一步地,步骤4包括以下步骤:步骤4

1:构造VGG16图像特征提取网络并加载在预训练模型参数,输入不同的视图图像提取特征;步骤4

2:VGG16网络首部由连续2次的两个3x3的卷积层一个2x2的池化层,在加上连续三次的两个3x3的卷积层、一个1x1的卷积层和一个2x2的池化层组成。
[0010]进一步地,步骤5方法如下:将点云分支得到的点云特征和投影视图的RGB图像和点频图像的特征进行拼接合并。
[0011]进一步地,步骤6方法包括:将拼接点云特征和图像特征通过两个1x1的卷积层进行融合,再通过Relu激活层。
[0012]进一步地,步骤7方法包括以下步骤:将融合特征和拼接得到的特征进行逐位加操作。
[0013]进一步地,步骤8方法包括:再将图像特征和步骤7得到的特征进行拼接合并。
[0014]进一步地,步骤9方法如下:在重复步骤6、步骤7和步骤8两次后,经过1x1的卷积层改变通道数深度融合了二维图像和三维点云的特诊。
[0015]进一步地,步骤10方法包含:将步骤9得到的特征使用语义分割网络预测点云的语义信息,使用标注信息进行监督训练。
[0016]进一步地,步骤11方法如下:步骤11

1:将步骤9得到的特征使用分类网络预测点云的类别信息,使用标注信息进行监督训练;步骤11

2:分类网络由若各干个全连接层组成。
[0017]进一步地,步骤12方法如下:最后将得到的点云语义分割和语义类别进行显示。
[0018]本专利技术的有益效果:探索了室内场景下多任务之间的关联性和互补性;提出一种3D场景理解的点云多模态特征融合网络方法,可以处理融合点云特征和图像特征并互补语义信息进行监督训练;最终可以得到一个精度更高且更加鲁棒的点云语义分割模型,可用于绝大多数的室内场景理解任务中。
[0019]本方法在室内场景理解任务上取得了极高的精度,而且适用性广泛,可适配多种不同任务组合。
[0020]附图说明:下面结合附图和具体实施方式对本专利技术做更进一步的具体说明,本专利技术的上述或其他方面的优点将会变得更加清楚。
[0021]图1为本算法的整体流程图,对应步骤3到步骤11;图2为3D场景理解的点云多模态特征融合网络方法框架图;图3为最终的语义分割效果示意图。
[0022]具体实施方式:下面将结合附图和实施例对本专利技术作详细说明。
[0023]本算法总体包括以下步骤:如图1

2所示,一种用于3D场景理解的点云多模态特征融合网络方法,包括以下步骤:步骤1:收集现有的点云数据集,其中数据集包括S3DIS数据集和ModelNet40数据集,数据集中的数据包括含颜色信息的点云数据;步骤2:根据点云数据从前视图、后视图、顶视图、底视图、右侧视图、左侧视图生成其对应的多视图的点云投影图像和点频图像;步骤3:使用PointNet++提取点云的全局特征和部分局部特征;步骤4:使用VGG16分别提取不同的视图图像特征并聚合成一个全局特征;步骤5:将点云分支和图像分支的特征进行拼接合并;步骤6:将拼接后的特征通过两个1x1的卷积层融合点云特征和图像特征;步骤7:将步骤6得到的融合特征和拼接特征进行逐位加操作;步骤8:将图像特征和步骤7得到的特征进行拼接合并;步骤9:重复步骤6、7、8两次后得到最后的融合特征;步骤10:对于步骤9输出的特征使用语义分割网络预测点云语义信息,使用标注信息进行监督训练;步骤11:对于步骤9输出的特征使用分类预测点云类别信息,使用标注信息进行监督训练;步骤12本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种用于3D场景理解的点云多模态特征融合网络方法,其特征在于,包括以下步骤:步骤1:收集现有的点云数据集,其中数据集包括S3DIS数据集和ModelNet40数据集,数据集中的数据包括含颜色信息的点云数据;步骤2:根据点云数据从前视图、后视图、顶视图、底视图、右侧视图、左侧视图生成其对应的多视图的点云投影图像和点频图像;步骤3:使用PointNet++提取点云的全局特征和部分局部特征;步骤4:使用VGG16分别提取不同的视图图像特征并聚合成一个全局特征;步骤5:将点云分支和图像分支的特征进行拼接合并;步骤6:将拼接后的特征通过两个1x1的卷积层融合点云特征和图像特征;步骤7:将步骤6得到的融合特征和拼接特征进行逐位加操作;步骤8:将图像特征和步骤7得到的特征进行拼接合并;步骤9:重复步骤6、7、8两次后得到最后的融合特征;步骤10:对于步骤9输出的特征使用语义分割网络预测点云语义信息,使用标注信息进行监督训练;步骤11:对于步骤9输出的特征使用分类预测点云类别信息,使用标注信息进行监督训练;步骤12:显示点云的3D场景理解效果图。2.根据权利要求1所述的方法,其特征在于,步骤1包括如下步骤:步骤1

1:下载现有的S3DIS数据集和ModelNet40数据集;步骤1

2:处理获取点云数据。3.根据权利要求2所述的方法,其特征在于,步骤2包括如下步骤:步骤2

1:从前视图、后视图、顶视图、底视图、右侧视图、左侧视图分别投影点云数据;步骤2

2:生成其对应的多视图图像。4.根据权利要求3所述的方法,其特征在于,步骤3包括以下步骤:步骤3

1:构造PointNet++图像特征提取网络并输入原始点云数据提取点云特征,并加载在预训练模型参数;步骤3

2:PointNet++网络首部...

【专利技术属性】
技术研发人员:郭延文赵志伟吴政亿任大勇
申请(专利权)人:南京大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1