The invention discloses a multi-source image fusion and feature extraction algorithm based on depth learning, which includes: putting every three-dimensional model in the database into a virtual regular dodecahedron, putting the virtual camera on 20 vertices with uniform distribution of the regular dodecahedron, taking virtual photographs of the original object from the viewpoint of the three-dimensional space, and obtaining 20 views of a single object. Graph is used to construct multi-view model database. The multi-view model database is divided into training set, test set and verification set according to the ratio of 7:2:1. The hidden variable of view attitude label is used to redefine the loss function, and the loss function is minimized by back-propagation algorithm. At the end of the minimization loss function, the last layer of the neural network outputs multiple targets through soft Max cascade. View, the score of the category under the constraint of the candidate view attitude tag. The invention avoids the dependence on the space where the feature is located and improves the accuracy of target classification.
【技术实现步骤摘要】
基于深度学习的多源图像融合和特征提取算法
本专利技术涉及多视图目标分类领域,尤其涉及一种基于深度学习的多源图像融合和特征提取算法。
技术介绍
伴随着数字化、显示技术和三维建模[1]等技术的日益成熟,三维模型这一目标呈现出爆破式地增长,如何对这一目标进行高效分析和检索成为一个重要的研究问题[2]。而目标分类[3]作为三维模型检索中重要的一步,能够在很大程度上影响分类的速度和精度,通过类别来限定检索的范围,既能提高检索的效率,又能提高检索的精度。而目标分类技术,是指将一部分已经标注过的目标(比如:图像、视频、三维模型等[4])作为训练样本,通过深度学习等算法对其进行训练,得到最优的分类器。目标分类技术是三维模型检索中重要的一步,目前三维模型检索主要有两大类[5]:第一类是基于文本进行三维模型检索,另外一类基于三维模型的内容检索更加常见。在一类中,通过文本标注,将三维模型进行文字标注,通过标注来检索获取三维模型。但由于文本的二义性和三维模型复杂的空间结构信息,检索效果不太理想。第二类是基于内容的检索,根据三维模型的拓扑结构[6]、几何形状[7]等形状内容来获取目标的形状特征,将特征存储后,进行检索。而几何相似性是基于内容检索中的主要组成部分,它不仅能相对精确的描述三维模型的内在信息,还无需人工干预,排除了因人工标注而导致的信息差异性。基于内容的检索分为两类[8]:基于模型的检索和基于视图的检索。由于基于模型的检索受到计算量的限制应用不是很广泛,现在较为常用的是基于视图的检索。基于视图的三维模型检索方法使用二维视图来描述三维模型,同时,三维模型的比较也是基于二维视 ...
【技术保护点】
1.一种基于深度学习的多源图像融合和特征提取算法,其特征在于,所述方法包括以下步骤:将数据库中的每个三维模型置于一个虚拟的正十二面体中,将虚拟相机安置在正十二面体的均匀分布的二十个顶点上,从三维空间的视点中对原始物体进行虚拟拍照,得到单个目标的二十个视图,构成多视图模型数据库;将多视图模型数据库按照7:2:1的比例划分为训练集、测试集和验证集,利用视图姿态标签这一隐变量重新定义损失函数,通过反向传播算法最小化损失函数;在最小化损失函数后,神经网络最后一层通过softmax级联输出单个目标的多个视图,在候选视图姿态标签的约束下所属类别的得分。
【技术特征摘要】
1.一种基于深度学习的多源图像融合和特征提取算法,其特征在于,所述方法包括以下步骤:将数据库中的每个三维模型置于一个虚拟的正十二面体中,将虚拟相机安置在正十二面体的均匀分布的二十个顶点上,从三维空间的视点中对原始物体进行虚拟拍照,得到单个目标的二十个视图,构成多视图模型数据库;将多视图模型数据库按照7:2:1的比例划分为训练集、测试集和验证集,利用视图姿态标签这一隐变量重新定义损失函数,通过反向传播算法最小化损失函数;在最小化损失函数后,神经网络最后一层通过softmax级联输出单个目标的多个视图,在候选视图姿态标签的约束下所属类别的得分。2.根据权利要求1所述的一种基于深度学习的多源图像融合和特征提取算法,其特征在于,所述的数据库为ModelNet40数据库。3.根据权利要求1所述的一种基于深度学习的多源图像融合和特征提取...
【专利技术属性】
技术研发人员:周河宇,韦莎,程雨航,王伟忠,刘安安,聂为之,苏育挺,
申请(专利权)人:天津大学,中国电子技术标准化研究院,
类型:发明
国别省市:天津,12
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。