【技术实现步骤摘要】
一种基于注意力生成式卷积模型的信道均衡方法
[0001]本专利技术属于信号处理
,尤其涉及一种基于注意力生成式卷积模型的信道均衡方法
。
技术介绍
[0002]随着基于注意力机制的
Transformer(Attention Is All YouNeed)、Bert(BERT:Pre
‑
training of Deep Bidirectional Transformers for Language Understanding)、ChatGpt(Improving Language Understanding by Generative Pre
‑
Training)
等深度学习架构的提出,自然语言处理
(NLP)
领域在近五年得到了极大的发展
。Transformer
的架构核心是将统计学中的注意力机制应用在了处理机器翻译问题的神经网络当中,通过计算“查询”和“键”的相似度作为注意力评分,对“值”进行加权平均
。
这一方法能使得在对句子中一个词元处理时,能够看到整个句子其他的词元,并根据注意力评分整合成与当前词元相关的语义空间信息
。
同时,这种架构的计算并行度高,使得能够处理长句子高复杂度问题的大模型成为可能
。
基于这种注意力机制,
Bert
架构应用了
Transformer
架构中的编码器,并在
11
项自然语言处理任务 ...
【技术保护点】
【技术特征摘要】
1.
一种基于注意力生成式卷积模型的信道均衡方法,其特征在于,所述方法包括以下步骤:步骤
1、
对采样信息序列进行层归一化
Layer Normalization
,对输入的序列进行自动增益控制;步骤
2、
对输入序列进行交错采样,分别设置采样间隔
Interval
和交错长度
Cross
;依照两值对输入序列进行采样成长度为
length
=
Interval+Cross
的个序列,并将这些序列拼接成行
length
列的矩阵作为词元
token array
;步骤
3、
对词元的行使用两个不同的线性层映射得到查询
queries
和键
keys
:
queries
=
W
q
×
token array+bias
q
keys
=
W
k
×
token array+bias
k
其中,是可训练参数;
hidden
为映射后的向量长度,为超参数;步骤
4、
使用点积注意力计算注意力分数矩阵:
attention weight
=
quaries
×
keys
T
其中,上标
T
表示矩阵转置;步骤
5、
将注意力分数矩阵
attntio weight
通过
Flatten
操作展平成一个行向量,作为下一步多层感知机
mlp
的输入:
attention array
=
Flatten(attention weight)
也可以写成:
attention array
=
attention weight.reshape(ba...
【专利技术属性】
技术研发人员:韩帅,郭承钰,孟维晓,吴尘雨,
申请(专利权)人:哈尔滨工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。