【技术实现步骤摘要】
一种基于动态可精简神经网络的自适应高能效推理方法
[0001]本专利技术属于神经网络优化领域,尤其涉及一种基于动态可精简神经网络的自适应高能效深度神经网络推理方法
。
技术介绍
[0002]深度神经网络
(Deep Neural Network
,简称
DNN)
是一种基于人工神经网络的机器学习算法,它由多层相互连接的神经元组成,旨在模拟大脑的结构和功能
。
近年来,
DNN
在计算机视觉
、
语音处理
、
自然语言处理等领域得到广泛的应用,并取得了许多令人瞩目的成果
。
为了满足给定任务
(
例如在图像分类领域利用
DNN
实现高精度识别
)
,
DNN
通常需要使用数十层甚至上百层的网络结构
。
这种增加深度的设计策略可以有效提高模型的表示能力,使得模型能够更好地捕捉数据中的复杂特征,从而提高模型的预测准确性
。
然而,随着
DNN
模型变得越来越复杂,模型中需要训练和优化的参数也在不断增加,同时模型推理过程中需要的计算量也变得越来越大,从而导致
DNN
推理能耗不断增加,
DNN
模型推理过程中的能耗成为限制
DNN
进一步应用的重要因素
。
特别是在移动设备物联网设备等电池供电并且资源有限的设备上,推理能耗的增加会极大 ...
【技术保护点】
【技术特征摘要】
1.
一种基于动态可精简神经网络的自适应高能效推理方法,其特征在于,步骤如下:步骤1:初始化定义宽度乘数
c
和可切换宽度乘数列表
S
;步骤2:构建基于能耗乘数的可精简神经网络
SNN
:步骤
2.1
:预定义可切换能耗约束列表
SE
,初始化神经网络
M
;步骤
2.2
:计算神经网络
M
推理能耗
E
original
;步骤
2.3
:进行子网络精度优化;步骤
2.4
:迭代训练
n
iters
次;步骤3:得到可切换能耗约束下可精简神经网络
M
*
。2.
根据权利要求1所述的基于动态可精简神经网络的自适应高能效推理方法,其特征在于,步骤1中,定义宽度乘数
c
,宽度乘数计算如下:其中,
c
A
为当前网络实际宽度,
c
T
为网络模型原始宽度,用
×
表示宽度乘数;训练拥有不同宽度的可精简神经网络
SNN
,对于多个宽度乘数,引入可切换宽度乘数列表
S
,表示如下:
S
=
[c1,c2,
……
,c
n
]
×
其中
c1,c2,
……
,c
n
表示
n
个不同的宽度乘数,深度神经网络
DNN
可切换宽度乘数列表
S
中切换拥有不同宽度乘数的子网络
。3.
根据权利要求2所述的基于动态可精简神经网络的自适应高能效推理方法,其特征在于,步骤2:构建基于能耗乘数的可精简神经网络能耗乘数
e
表示如下:其中
e
A
表示实际推理能耗,
e
T
表示原始模型下所需推理能耗,用
×
表示能耗乘数,能耗乘数
e
对应的可切换能耗约束
SE
表示如下:
SE
=
[e1,e2,
……
,e
n
]
×
其中
e1,e2,
……
,e
n
表示
n
个不同的能耗乘数,深度神经网络
DNN
可在不同能耗约束下切换到不同能耗乘数的子网络下执行;通过可切换批归一化
S
‑
BN
对可精简网络
SNN
中的不同子网络采用独立的批量归一化,归一化输出
y
′
表示如下:其中,
y
为归一化输入,
α
和
β
为可学习系数和偏差值,
u
和
δ2为训练过程中当前小批...
【专利技术属性】
技术研发人员:任健康,倪政,钱一诚,宿晓燕,李思梦,李声宇,吕宪,徐子川,叶鑫,
申请(专利权)人:大连理工大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。