下载一种基于transformer注意力机制输出的优化对齐方法的技术资料

文档序号:23162028

温馨提示:您尚未登录,请点 登陆 后下载,如果您还没有账户请点 注册 ,登陆完成后,请刷新本页查看技术详细信息。

本发明公开了一种基于transformer注意力机制输出的优化对齐方法;应用在基于注意力机制的transformer框架模型上。包括:注意力机制函数的输入是源语言与目标语言的词向量Q、K,在翻译框架中会输出一个对齐张量输出,使用多个注意力机...
该专利属于电子科技大学所有,仅供学习研究参考,未经过电子科技大学授权不得商用。

详细技术文档下载地址

温馨提示:您尚未登录,请点 登陆 后下载,如果您还没有账户请点 注册 ,登陆完成后,请刷新本页查看技术详细信息。