一种基于深度学习的三维流场网格分类分割方法技术

技术编号:37853870 阅读:13 留言:0更新日期:2023-06-14 22:46
本发明专利技术公开了一种基于深度学习的三维流场网格分类分割方法,所述方法包括如下步骤:S1:三维网格模型数据预处理;以三维网格模型数据中局部曲面作为基本处理单元,数据预处理为将局部曲面的特征分为三维的空间特征和十六维的结构特征;S2:三维网格分类模型构建;融合生成对抗网络和协同注意力网络完成三维网格分类模型构建;S3:模型训练;引入三元组损失和DCCA损失对步骤S2获得的三维网格分类模型构建的子空间特征分布进行语义对齐,使得模型构建的子空间中语义相关的特征数据对所对应的语义分布距离靠近,同时使语义不相关的特征数据对所对应的分布距离远离;S4:基于步骤S3训练完成的模型完成三维流场网格分类分割。训练完成的模型完成三维流场网格分类分割。训练完成的模型完成三维流场网格分类分割。

【技术实现步骤摘要】
一种基于深度学习的三维流场网格分类分割方法


[0001]本专利技术属于流场可视
,尤其涉及一种基于深度学习的三维流场网格分类分割方法。

技术介绍

[0002]近年来,随着深度学习、机器学习等相关技术的不断发展,人工智能(AI)被越来越多的领域应用。在计算流体可视化领域,深度学习相关技术能拆分各类任务,使不同类型的机器辅助功能适用于实际的应用环境,有效提高计算流体力学的网格划分友好度,准确区分流场内各模块网格类型、减少人工干预,提高涡流预测效率和精度等作用。计算机视觉是帮助研发人员理解与分析图像的有效方法之一,它是指从图像中捕获视觉特征,提升对图片的理解与于分析能力,再从视觉特征角度对图形和图像进行认知,最终促使研发人员与大规模科学数据达到理解、感觉和交互。
[0003]而对于大规模流场三维网格模型的可视化处理,传统的计算机视觉方法不能准确且高效的区分壁面网格与远场网格,无法满足研发人员与大规模科学数据的正常交互需求。因此,将深度学习技术引入计算机视觉分析方法中就成为了必然选择,利用深度学习处理大规模流场网格,分离壁面和远场网格已成为大规模流场三维网格模型分析的有效手段。基于深度学习的壁面网格选取方法,通过学习不同类型网格之间的特有几何特征与数据分布语义,并结合流场中网格的先验物理知识,达到准确、高效的分离壁面网格和远场网格的目的。
[0004]针对现有的三维网格分类任务,传统的卷积神经网络无法直接操作三维网格模型,所以,近年来改进网络结构以处理该问题的深度学习模型逐渐增多。Hanocka等人提出基于卷积神经网路的网格分类分割模型MeshCNN,MeshCNN模型注重提取网格的面内结构特征,以边集为卷积基础单元,同时联合二面角、内角、三角形的高与底边比例构成5维的特征向量,使用边折叠法进行池化。Feng等人提出适用于三维网格的网络MeshNet,该网络以三角面片作为模型学习的基本单元,面片的中心坐标集作为空间特征,面片法向量与领域之间的相似度作为外部结构特征、面片的中心角偏移量作为内部结构特征,最后MeshNet针对分类分割不同任务进行局部结构修改,并在相关公开数据集上取得不错的成绩。Yang等人提出基于三维网格的卷积模型PFCNN,该模型针对网格的平移不变性和卷积神经网络的平移共变性,连接不同视角下的平行标架场编码曲面,构成新的平移结构,使其学习更精细的特征尺度。Qiao等人提出基于拉普拉斯变换的网格分类分割模型LaplacianNet,结构多尺度池化与拉普拉斯谱聚类,有效提取网格的全局信息,最后引入相关网络计算信息一致性矩阵,该矩阵与拉普拉斯聚类矩阵共同体现网格模型的特征信息。Litany等人提出一种基于图卷积的变分自编码器,用于完成三维图形补全。
[0005]上述方法都是采用深度学习中的卷积神经网络来完成三维网格模型的分类分割等其他任务,虽然有效化解了卷积网络不能直接应用于三维网格上的问题并在大多数任务上取得阶段性进展,但也存在一定局限性,主要是卷积网络中的池化操作会丢失大量高层
语义,从而降低三维模型分类分割的准确率。
[0006]为解决上述问题,Hinton等人提出胶囊网络,该网络采用向量特征替换卷积神经网络中的标量特征,以向量的形式保存不同维度特征信息,减少卷积池化过程总的特征丢失。Zhen等人将胶囊网络运用在三维网格模型中,以胶囊网络替换原有的卷积网络,并优化池化层,降低了高层语义丢失,保证了特征的有效性,提高分类分割准确度。
[0007]随着数值模拟等相关技术的飞速发展和实际工程环境的切实需求,后处理可视软件变得越来越精细化、工程化和专业化,同时数值模拟所需处理的三维网格模型的数据规模与日俱增。因此,如何准确、高效地选取三维网格模型的壁面模块,整体提升可视化工业软件的交互性,是当前数值模拟后处理领域一大亟待解决的问题。
[0008]三维网格是由点、面、边构成的集合,各面片之间通过两两拓扑组合,准确的表达物体复杂的表面特征,在流场可视环境中,壁面网格与远场网格具有不同表面几何特征,呈现出各异的表现形式,三维壁面网格的选取,就是将壁面网格与远场网格分离。由于流场可视环境中的三维网格数据量总体偏大、结构复杂且壁面网格数据量占比较小,科研人员无论是从远场网格中选出壁面网格,还是从整个流场中筛出远场网格,都无法准确且高效的完成选取。
[0009]采用深度学习的方法来学习不同类型的三维网格模型, 能从表面几何特征、点位分布特征和物理先验知识特征等方面有效区分网格模型,高效的分离壁面网格。但现有的深度学习方法无法直接处理复杂且不规则的网格数据,不能有效地提取网格表面的几何特征、以面片为基本处理单元,无法高效的分离大规模三维网格模型和没有结合流场的物理先验知识,缺乏模型学习的方向性指导。

技术实现思路

[0010]本专利技术的目的在于:为了克服现有技术问题,公开了一种基于深度学习的三维流场网格分类分割方法,通过本专利技术三维流场网格分类分割方法实现了流场可视环境中的壁面网格选取。
[0011]本专利技术目的通过下述技术方案来实现:一种基于深度学习的三维流场网格分类分割方法,所述三维流场网格分类分割方法至少包括如下步骤:S1:三维网格模型数据预处理;以三维网格模型数据中局部曲面作为基本处理单元,数据预处理为将局部曲面的特征分为三维的空间特征和十六维的结构特征;S2:三维网格分类模型构建;融合生成式对抗网络和协同注意力网络完成三维网格分类模型构建;S3:模型训练;引入三元组损失和DCCA损失对步骤S2获得的三维网格分类模型构建的子空间特征分布进行语义对齐,使得模型构建的子空间中语义相关的特征数据对所对应的语义分布距离靠近,同时使语义不相关的特征数据对所对应的分布距离远离;S4:基于步骤S3训练完成的模型完成三维流场网格分类分割。
[0012]根据一个优选的实施方式,步骤S1包括获取局部曲面的空间特征,具体包括步骤:S11:使用最远点采样算法FPS(Farthest Point Sampling,FPS)将网格模型数据进行拆分,根据网格模型数据的实际顶点数确定采样点的个数;S12:采样点确定之后,对局部曲面内
空间特征进行映射,空间特征映射包括采样点中心选取、多项式局部曲面拟合和求曲面领域法向量一致性矩阵三个部分构成。
[0013]根据一个优选的实施方式,步骤S12中,局部曲面的中心点选用采样点坐标,多项式局部曲面拟合采用最小二乘估算。
[0014]根据一个优选的实施方式,步骤S1包括获取局部曲面的结构特征,局部曲面的结构特征包括内外结构特征,具体为:S13:内外结构特征分别由多项式局部曲面拟合于法向量一致性矩阵构成,多项式曲面拟合以局部曲面采样点为中心点,然后使用KNN(K

Nearest Neighbor,KNN)进行无监督聚类,聚类所得的点集作为局部曲面拟合的输入,拟合曲面由常量和阈值组成,将估算的常量和阈值作为局部曲面的特征向量,该向量直接参数三维网格分类模型的学习。
[0015]根据一个优选的实施方式,步骤S2本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度学习的三维流场网格分类分割方法,其特征在于,所述三维流场网格分类分割方法至少包括如下步骤:S1:三维网格模型数据预处理;以三维网格模型数据中局部曲面作为基本处理单元,数据预处理为将局部曲面的特征分为三维的空间特征和十六维的结构特征;S2:三维网格分类模型构建;融合生成式对抗网络和协同注意力网络完成三维网格分类模型构建;S3:模型训练;引入三元组损失和DCCA损失对步骤S2获得的三维网格分类模型构建的子空间特征分布进行语义对齐,使得模型构建的子空间中语义相关的特征数据对所对应的语义分布距离靠近,同时使语义不相关的特征数据对所对应的分布距离远离;S4:基于步骤S3训练完成的模型完成三维流场网格分类分割。2.如权利要求1所述的三维流场网格分类分割方法,其特征在于,步骤S1包括获取局部曲面的空间特征,具体包括步骤:S11:使用最远点采样法FPS将网格模型数据进行拆分,根据网格模型数据的实际顶点数确定采样点的个数;S12:采样点确定之后,对局部曲面内空间特征进行映射,空间特征映射包括采样点中心选取、多项式局部曲面拟合和求曲面领域法向量一致性矩阵三个部分构成。3.如权利要求2所述的三维流场网格分类分割方法,其特征在于,步骤S12中,局部曲面的中心点选用采样点坐标,多项式局部曲面拟合采用最小二乘估算。4.如权利要求2所述的三维流场网格分类分割方法,其特征在于,步骤S1包括获取局部曲面的结构特征,局部曲面的结构特征包括内外结构...

【专利技术属性】
技术研发人员:陈呈邓佳康杨超赵丹王昉李静王岳青杨文祥郭宁波
申请(专利权)人:中国空气动力研究与发展中心计算空气动力研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1