【技术实现步骤摘要】
一种可重构阵列下Transformer网络模型数据复用方案与实现方法
[0001]本申请涉及数据复用
,具体涉及一种可重构阵列下
Transformer
网络模型数据复用方案与实现方法
。
技术介绍
[0002]边缘设备通常具有有限的计算能力
、
存储和能耗
。
由于
Transformer
模型通常较大且计算密集,将其直接部署在边缘设备上可能会导致性能下降
、
延迟增加以及电池寿命缩短
。Transformer
网络的预训练语言模型经过微调后,虽然能够在许多下游任务上取得较好的效果,但是
Transformer
模型本身较大,需要的计算资源较多,因此很难将这些模型部署到硬件中
。
通过数据复用,可以减少模型重复加载和计算的次数,从而减轻设备负担
。
[0003]在设计数据流通路时,数据复用是实现高性能和低功耗的主要手段,可进一步分为时间复用和空间复用
。
时间复用发生在相同数据在不同周期重用时,而空间复用发生在相同数据在不同
PE
处重用
。
[0004]权重共享是一种简单且有效的减少模型尺寸的技术,已被用于
NLP
中的
Transformer
模型压缩
。
目前有很多方式来共享参数,例如只共享前馈网络不同层之间的参数,或者只共享注意力机制的参数,而
AL ...
【技术保护点】
【技术特征摘要】
1.
一种可重构阵列下
Transformer
网络模型数据复用方案,其特征在于,利用基于倒序循环的权重共享方法,构造使用
L/2
层参数的
L
层
MSA
模块,前
L/2
层使用不同的参数,后
L/2
层重复利用前
L/2
层的参数,由此实现权重共享
。2.
根据权利要求1所述的可重构阵列下
Transformer
网络模型数据复用方案,其特征在于,所述权重共享方法的实现如算法1所示,
CreateNewLayer
是创建
MSA
模块的函数;首先堆叠前
L/2
层,这些层的参数彼此相互独立,后
L/2
层使用倒序循环的权重共享方法,重复利用前
L/2
层的参数;
3.
根据权利要求1所述的可重构阵列下
Transformer
网络模型数据复用方案,其特征在于,所述可重构阵列下
Transformer
网络模型数据复用的实现方法,包括以下步骤:
S1.
将
PE
阵列划分为四个
PE
组,每个
PE
组包含4×4个
PE
,为一簇;
S2.
第一组内的
PE
从分块后的输入图像数据读取图像特征和位置特征;第二组内的
PE
读取第一组
PE
中的特征信息,实现编码器模块各种运算的数据处理和存储;第三组内的
PE
【专利技术属性】
技术研发人员:蒋林,张骁帆,张一心,纪晨,张岩,张丁月,
申请(专利权)人:西安科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。