【技术实现步骤摘要】
一种基于无监督深度学习神经网络的图像特征提取方法
[0001]本专利技术涉及视觉SLAM
,具体涉及一种基于无监督深度神经网络的图像特征提取方法。
技术介绍
[0002]随着计算机科学和自动化技术的迅速发展,机器人开始被更多地应用于不同的生产生活场景中。视觉SLAM在室内场景下能够为机器人提供定位和导航服务,SLAM中的回环检测能够显著减小误差,提供更精准的定位导航结果。但同一个位置在不同时间的视觉观测可能会因为不同的视点、光线、天气和动态对象等因素而发生巨大变化,这为回环检测带来了难题。虽然现在已经有许多方法可以有效地在这些情况下执行,如场景流算法、语义分割算法等,能够对动态场景进行分割,但其处理速度较慢或者鲁棒性较弱,在挑战性强的场景中很难实时执行。
[0003]卷积神经网络凭借其强大的特征学习能力而在视觉识别领域广泛应用。现有基于卷积神经网络的提取速度慢,且需要大量标注数据用于网络训练。因此现需要一种操作简单、运行速度快的图像特征提取方法。
技术实现思路
[0004]本专利技术的主要目的在于提供一种基于无监督深度神经网络的图像特征提取方法,以解决现有技术中卷积神经网络的提取速度慢,且需要大量标注数据用于网络训练的问题。
[0005]为实现上述目的,本专利技术提供了一种基于无监督深度神经网络的图像特征提取方法,具体包括如下步骤:
[0006]S1,获取当前不同视点的图像{X1、X2、X3、
…
、X
n
},调整所有图像为统一大小,利用 ...
【技术保护点】
【技术特征摘要】
1.一种基于无监督深度神经网络的图像特征提取方法,其特征在于,具体包括如下步骤:S1,获取当前不同视点的图像{X1、X2、X3、
…
、X
n
},调整所有图像为统一大小,利用灰度转换生成灰度图{Y1、Y2、Y3、
…
、Y
n
};S2,对灰度图{Y1、Y2、Y3、
…
、Y
n
}进行单应性变换,其中对图像Y1变换生成新图像Y1`,Y2生成Y2`,以此类推,最后生成n个图像对{(Y1,Y1`)、(Y2,Y2`)、(Y3,Y3`)、
…
、(Y
n
,Y
n
`)};S3,随机选择每个图像对中的一张图像构成图像组A,另一张图像构成图像组B;S4,把图像组A中每张图片按图像长宽比进行分块,最终分成M块,对每一块图片进行尺度不变特征变换,提取出每块图片中一个关键点的信息,最后把M块图片提取出的关键点信息统计成M
×
128维的向量;S5,把图像组B作为无监督深度学习神经网络的输入,利用无监督深度学习神经网络从图像中提取特征,生成N
×4×
14
×
19的特征地图,其中N代表输入图片个数,再利用三层全连接层生成M
×
128维图像的特征向量;S6,利用L2损失函数对图像组A和图像组B中每张图像生成的2个M
×
128的一维向量进行误差计算,并利用计算出的误差E对无监督深度学习神经网络进行反向传播,逐层调整神经网络参数。2.根据权利要求1所述的一种基于无监督深度神经网络的图像特征提取方法,其特征在于,步骤S1具体为:通过单目相机获取机器人不同视角的环境图像{X1、X2、X3、
…
、X
n
},在获取到相关图像后,利用公式(1)对所有图像进行灰度化处理,并把灰度化后的图像重新命名为{Y1、Y2、Y3、
…
、Y
n
};其中Gray(i,j)表示图像灰度化后在横向距离i和纵向距离j处的像素值,R(i,j)、G(i,j)、B(i,j)分别表示彩色图像中(i,j)坐标在红色、绿色、蓝色通道中的像素值。3.根据权利要求1所述的一种基于无监督深度神经网络的图像特征提取方法,其特征在于,步骤S2具体包括:S2.1,将原始灰度图像{Y1、Y2、Y3、
…
、Y
n
}中每张图像的角边界框中随机选取的4个点Pr1(x1,y1)、Pr2(x2,y2)、Pr3(x3,y3)、Pr4(x4,y4),依次与新灰度图像的4个角的点Pc1(0,0)、Pc2(0,h)、Pc3(w,0)、Pc4(w,h)相对应;其中,x
i
、y
i
(i=1、2、3、4)为4个随机点的横、纵坐标值,w和h分别为原始灰度图像的长和宽,同时也是新灰度图像的长和宽;S2.2,分组计算投影变换矩阵的参数;投影变换矩阵H是一个3
×
3的矩阵,但仅有8个自由度,所以一般写为由矩阵方程得
其中x
′1、y
...
【专利技术属性】
技术研发人员:宋诗斌,朱杰,于凤洁,程炜皓,王海霞,卢晓,盛春阳,聂君,张治国,孙巧巧,
申请(专利权)人:山东科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。