一种基于深度学习神经网络模型的图像目标识别方法技术

技术编号:44573959 阅读:28 留言:0更新日期:2025-03-11 14:34
本发明专利技术提供了一种图像目标识别方法,包括:将图像集中的图像输入训练后的浮点数深度神经网络模型,获取浮点数深度神经网络模型各隐藏层输出浮点数的取值范围;根据浮点数深度神经网络模型各隐藏层输出浮点数的取值范围,结合量化后定点数的目标位宽值,确定每个隐藏层的输出浮点数与定点数非对称量化关系式中的参数;确定每个隐藏层的输出浮点数与定点数非对称量化关系式为:在浮点数深度神经网络模型的各隐藏层后,分别采用各隐藏层对应的输出浮点数与定点数非对称量化关系式取代ReLU函数,获得定点数神经网络模型;向定点数神经网络模型中输入待测图像,定点数神经网络模型中各隐藏层输出的浮点数转化为定点数,并完成图像目标识别。

【技术实现步骤摘要】

本专利技术属于图像识别,特别涉及一种基于深度学习神经网络模型的图像目标识别方法


技术介绍

1、深度学习网络模型中包含大量的参数与计算。在服务器端(如地面端)训练时,为保证深度学习网络模型精度,各级卷积层的初始卷积核、各级卷积层的初始偏置矩阵、全连接层的初始权重矩阵和全连接层的初始偏置向量,通常使用32位浮点的数据格式。在边缘端(如飞行器端)使用训练好的深度学习网络模型时,受存储空间及计算资源的严格限制,在保持精度的同时,为降低计算消耗,需要使用低位宽定点数据格式进行推理计算。将深度学习网络模型中高位宽的数据转化为低位宽的数据的方法称为量化。

2、在深度学习神经网络中,激活函数在激发隐藏节点以产生更理想的输出方面起着重要作用。修正线性单元(rectified linear unit,relu)在神经网络中经常被用于隐层神经元输出。特别是在边缘端部署网络中,relu计算实现简单,可以高效适配硬件,且稀疏激活性质可以帮助减少神经网络中的冗余性,使网络更加高效,因此,relu经常常被用于在边缘端部署的神经网络算法中。

3、传统的边缘端深度本文档来自技高网...

【技术保护点】

1.一种图像目标识别方法,其特征在于,包括:

2.根据权利要求1所述的图像目标识别方法,其特征在于,所述将图像集中的图像输入训练后的浮点数深度神经网络模型的步骤中,图像集中的图像与待测图像为同类型图像。

3.根据权利要求1所述的图像目标识别方法,其特征在于,所述向定点数神经网络模型中输入待测图像,定点数神经网络模型中各隐藏层输出的浮点数转化为定点数的步骤中,包括:

4.一种飞行器端图像目标识别方法,其特征在于,包括:

5.根据权利要求4所述的飞行器端图像目标识别方法,其特征在于,所述将图像集中的图像输入服务器端训练后的浮点数深度神经网络模型...

【技术特征摘要】

1.一种图像目标识别方法,其特征在于,包括:

2.根据权利要求1所述的图像目标识别方法,其特征在于,所述将图像集中的图像输入训练后的浮点数深度神经网络模型的步骤中,图像集中的图像与待测图像为同类型图像。

3.根据权利要求1所述的图像目标识别方法,其特征在于,所述向定点数神经网络模型中输入待测图像,定点数神经网络模型中各隐藏层输出的浮点数转化为定点数的步骤中,包括:

4.一种飞行器...

【专利技术属性】
技术研发人员:谢宇嘉周辉王晓峰盖一帆赵雄波李超然吴松龄董文杰弭寒光王云龙李然路坤锋李晓敏靳蕊溪杨立波高琪康旭冰
申请(专利权)人:北京航天自动控制研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1