【技术实现步骤摘要】
神经网络设备及其操作方法、以及应用处理器
[0001]相关申请的交叉引用
[0002]本申请要求分别于2020年4月7日和2021年2月1日在韩国知识产权局递交的韩国专利申请No.10
‑
2020
‑
0042409和No.10
‑
2021
‑
0014396的优先权,上述两个专利申请的内容通过引用整体并入本文。
[0003]本专利技术构思的实施例涉及一种神经网络,更具体地,涉及一种神经网络设备的计算方法和设备,该神经网络设备包括执行浮点计算和整数计算的计算电路。
技术介绍
[0004]神经网络是对动物大脑的生物网络进行建模的计算架构。随着近来神经网络技术的发展,在各种电子系统中已经存在使用基于神经网络而操作的神经网络设备来分析输入数据并提取有效信息的许多研究。
[0005]神经网络设备针对复杂的输入数据执行许多计算。为了使神经网络设备能够实时地分析输入并提取信息,需要一种用于有效地处理神经网络的操作的技术。具体地,诸如智能电话之类的低功率高性能系统具有有限的资源。因此,期望一种用于减少处理复杂的输入数据所需的计算的次数并提高人工神经网络的性能的技术。
技术实现思路
[0006]本专利技术构思的实施例提供了一种用于神经网络设备中的神经网络的计算方法和设备,该神经网络设备包括执行浮点计算和整数计算的计算电路。
[0007]根据本专利技术构思的实施例,提供了一种神经网络设备,其包括计算电路,该计算电路包括第 ...
【技术保护点】
【技术特征摘要】
1.一种神经网络设备,所述神经网络设备包括:计算电路,包括第一乘法器、第二乘法器、对齐移位器和加法器,其中所述加法器共享所述第一乘法器和所述第二乘法器,其中所述计算电路对多个浮点数据对执行第一点积运算或对多个整数数据对执行第二点积运算,其中,在所述第一点积运算中,所述计算电路使用所述第一乘法器分别根据所述多个浮点数据对获取多个分数乘法结果,使用所述对齐移位器基于从分别与所述多个浮点数据对相对应的多个指数加法结果中识别出的最大值来对所述多个分数乘法结果执行对齐移位,使用所述加法器将对齐的多个分数乘法结果相加并输出第一累积数据,以及在所述第二点积运算中,所述计算电路使用所述第二乘法器分别根据所述多个整数数据对获取多个整数乘法结果,使用所述加法器将所述多个整数乘法结果相加并输出第二累积数据。2.根据权利要求1所述的神经网络设备,其中,所述加法器包括:第一加法电路,在所述第一点积运算中将所述对齐的多个分数乘法结果的高位相加;以及第二加法电路,在所述第一点积运算中将所述对齐的多个分数乘法结果的低位相加,或者在所述第二点积运算中将所述多个整数乘法结果相加。3.根据权利要求2所述的神经网络设备,其中,所述计算电路还包括:第一后加法器,在所述第一点积运算中,将从所述第一加法电路输出的加法结果数据与从所述第二加法电路输出的加法结果数据相加,对所述加法结果数据进行归一化和取整,并输出所述第一累积数据;以及第二后加法器,在所述第二点积运算中,将从所述第二加法电路输出的所述加法结果数据相加并输出所述第二累积数据。4.根据权利要求3所述的神经网络设备,其中,所述计算电路接收包括第一整数数据对和第二整数数据对在内的所述多个整数数据对,并且在所述第二点积运算中,使用所述第一乘法器获取关于所述第一整数数据对的第一整数乘法结果,并且使用所述第二乘法器获取关于所述第二整数数据对的第二整数乘法结果。5.根据权利要求4所述的神经网络设备,其中,所述第一加法电路在所述第二点积运算中将所述第一整数乘法结果相加,并且其中,所述第二加法电路在所述第二点积运算中将所述第二整数乘法结果相加。6.根据权利要求5所述的神经网络设备,其中,在所述第二点积运算中,所述第二后加法器将从所述第一加法电路输出的所述加法结果数据与从所述第二加法电路输出的所述加法结果数据相加,并且输出所述第二累积数据。7.根据权利要求3所述的神经网络设备,其中,当执行所述第一点积运算时,所述计算电路选通所述第二乘法器和所述第二后加法器,并且当执行所述第二点积运算时,选通所述对齐移位器和所述第一后加法器。8.根据权利要求1所述的神经网络设备,其中,包括在所述多个浮点数据对中的多个输入数据项具有与所述第一累积数据的格式类型不同类型的格式,并且其中,包括在所述多个整数数据对中的多个输入数据项具有与所述第二累积数据的格
式类型不同类型的格式。9.根据权利要求8所述的神经网络设备,其中,包括在所述多个浮点数据对中的所述多个输入数据项具有浮点16“FP16”型格式或脑浮16“BF16”型格式,并且其中,第一累积数据具有浮点32“FP32”型格式。10.根据权利要求9所述的神经网络设备,其中,所述计算电路扩展所述多个输入数据项中的具有所述FP16型格式的第一数据的指数位字段,并且扩展所述多个输入数据项中的具有所述BF16型格式的第二数据的分数位字段。11.根据权利要求8所述的神经网络设备,其中,所述多个整数数据对中的所述多个输入数据项具有整数8“INT8”型格式,并且其中,所述第二累积数据具有整数32“INT32”型格式。12.根据权利要求1所述的神经网络设备,还包括:缓冲器,存储第三累积数据,所述第三累积数据是由所述计算电路...
【专利技术属性】
技术研发人员:金贤弼,沈炫宇,安成祐,金厦颂,李度咏,
申请(专利权)人:三星电子株式会社,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。