对象识别方法及设备技术

技术编号:21953716 阅读:23 留言:0更新日期:2019-08-24 18:12
公开了对象识别方法及设备,所述对象识别方法包括:通过执行神经网络的当前层的输入图与当前层的权重内核之间的卷积运算,生成当前层的输出图;基于神经网络中正在处理的激活数据的至少一部分的分布,确定当前层的输出图的轻量级格式;基于确定的轻量级格式,将与当前层的输出图对应的激活数据轻量化为具有低位宽。

Object Recognition Method and Equipment

【技术实现步骤摘要】
对象识别方法及设备本申请要求于2018年2月14日提交到韩国知识产权局的第10-2018-0018818号韩国专利申请、于2018年3月19日提交到韩国知识产权局的第10-2018-0031511号韩国专利申请以及于2018年8月13日提交到韩国知识产权局的第10-2018-0094311号韩国专利申请的权益,所述韩国专利申请的全部公开出于所有目的通过引用包含于此。
下面的描述涉及一种对象识别方法和对象识别设备。
技术介绍
例如,识别的技术自动化已经通过作为专用计算架构的处理器实现的神经网络模型而被实现,其中,在大量训练之后,处理器实现的神经网络模型可在输入模式与输出模式之间提供计算上直观的映射。生成这样的映射的训练能力可被称为神经网络的学习能力。此外,由于专门训练,因此这样专门训练的神经网络可具有针对输入模式生成相对准确的输出的概括能力,其中,例如,神经网络可能尚未针对所述输入模式被训练。这样,神经网络模型可应用于对象识别。
技术实现思路
以简化的形式提供本
技术实现思路
来介绍构思的选择,其中,在下面具体实施方式中进一步描述所述构思的选择。本
技术实现思路
不意图标识要求保护的主题的关键特征或必要特征,也不意图用于帮助确定要求保护的主题的范围。在一个总体方面,一种使用神经网络的处理方法包括:通过执行神经网络的当前层的输入图与当前层的权重内核之间的卷积运算,生成当前层的输出图;基于神经网络中正在处理的激活数据的至少一部分的分布,确定当前层的输出图的轻量级格式;基于确定的轻量级格式,将与当前层的输出图对应的激活数据轻量化为具有低位宽。确定轻量级格式的步骤可包括:基于当前层的输出图的最大值,确定输出图的轻量级格式。轻量化的步骤可包括:基于确定的轻量级格式,将神经网络的与当前层的输出图对应的后续层的输入图轻量化为具有低位宽。轻量化的步骤可包括:通过使用与确定的轻量级格式对应的值对神经网络的与当前层的输出图对应的后续层的输入图执行移位操作,将后续层的输入图轻量化为具有低位宽。所述处理方法还可包括:从存储器加载当前层的输出图;基于加载的当前层的输出图,更新被配置为存储当前层的输出图的最大值的寄存器。可基于存储在寄存器中的值来执行确定轻量级格式的步骤。确定轻量级格式的步骤可包括:基于神经网络的前一层的输出图的最大值,预测当前层的输出图的最大值;基于预测的当前层的输出图的最大值,确定当前层的输出图的轻量级格式。轻量化的步骤可包括:基于确定的轻量级格式,将当前层的输出图轻量化为具有低位宽。轻量化的步骤可包括:通过使用与确定的轻量级格式对应的值对当前层的输出图执行移位操作,将具有高位宽的当前层的输出图轻量化为具有低位宽。所述处理方法还可包括:基于通过卷积运算生成的当前层的输出图,更新被配置为存储当前层的输出图的最大值的寄存器。可基于存储在寄存器中的值,预测神经网络的后续层的输出图的最大值。所述处理方法还可包括:通过参考包括针对每个层和输出通道的权重内核的数据库,获得与当前在当前层中正在处理的第一输出通道对应的第一权重内核。生成当前层的输出图的步骤可包括:通过执行当前层的输入图与第一权重内核之间的卷积运算,生成与第一输出通道对应的第一输出图。第一权重内核可独立于与当前层的第二输出通道对应的第二权重内核而被确定。当前层的输入图和当前层的权重内核可具有低位宽,当前层的输出图可具有高位宽。在另一总体方面,一种使用神经网络的处理设备包括:处理器;存储器,包括能够由处理器执行的指令。当所述指令由处理器执行时,处理器可被配置为:通过执行神经网络的当前层的输入图与当前层的权重内核之间的卷积运算,生成当前层的输出图;基于神经网络中正在处理的激活数据的至少一部分的分布,确定当前层的输出图的轻量级格式;基于确定的轻量级格式,将与当前层的输出图对应的激活数据轻量化为具有低位宽。在另一总体方面,一种使用神经网络的处理方法包括:启动包括多个层的神经网络;通过执行神经网络的当前层的输入图与当前层的权重内核之间的卷积运算,生成当前层的输出图;在启动神经网络之后,确定当前层的输出图的轻量级格式;基于确定的轻量级格式,将与当前层的输出图对应的激活数据轻量化。启动神经网络的步骤可包括:将输入数据输入到神经网络,以用于对输入数据进行推断。在另一总体方面,一种处理方法包括:执行神经网络的当前层的输入数据与当前层的权重内核之间的运算,以生成具有高位宽的当前层的第一输出图,输入数据和权重内核具有低位宽;通过将第一输出图应用到激活函数来生成具有高位宽的当前层的第二输出图;输出第二输出图的最大值;基于最大值确定神经网络的后续层的输入图的轻量级格式,输入图具有高位宽;基于轻量级格式将输入图轻量化为具有低位宽。通过下面的具体实施方式、附图和权利要求书,其他特征和方面将是清楚的。附图说明图1是示出处理设备的示例和神经网络的示例的示图。图2是示出三维(3D)卷积神经网络(CNN)的架构的示例的示图。图3是示出轻量级格式的示例的示图。图4是示出权重内核的轻量化的示例的示图。图5是示出包括轻量级数据的查找表的示例的示图。图6是示出激活数据的动态轻量化处理的示例的示图。图7是示出激活数据的动态轻量化处理的另一示例的示图。图8是示出输入图的最大值分布的示例的曲线图。图9是示出训练设备的示例的示图。图10是示出处理设备的示例的示图。图11是示出处理方法的示例的流程图。图12是示出处理方法的另一示例的流程图。除非另外描述或提供,否则贯穿附图和具体实施方式,相同的附图参考标号将被理解为表示相同的元件、特征和结构。为了清楚、说明和方便,附图可不按比例绘制,并且附图中的元件的相对大小、比例和描绘可被夸大。具体实施方式提供下面的详细描述以帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在理解本申请的公开之后,在此描述的方法、设备和/或系统的各种改变、修改和等同物将是清楚的。例如,在此描述的操作的顺序仅是示例,操作的顺序不限于在此阐述的那些顺序,而是除了必须以特定顺序发生的操作之外,可如在理解本申请的公开之后将清楚的那样改变。此外,为了更加清楚和简洁,可省略对在理解本申请的公开之后已知的特征的描述。在此描述的特征可以以不同的形式实现,并且将不被解释为受限于在此描述的示例。更确切地说,在此描述的示例仅被提供以示出实现在此描述的方法、设备和/或系统的多种可能的方式中的一些方式,这在理解本申请的公开之后将是清楚的。贯穿说明书,当元件(诸如,层、区域或基底)被描述为“在”另一元件“之上”、“连接到”或“结合到”另一元件时,该元件可直接“在”所述另一元件“之上”、直接“连接到”或“结合到”所述另一元件,或者可存在介于它们之间的一个或多个其他元件。相反,当元件被描述为“直接在”另一元件“之上”、“直接连接到”或“直接结合到”另一元件时,可不存在介于它们之间的其他元件。如在此所使用的,术语“和/或”包括相关所列项中的任何一个或者任何两个或更多个的任何组合。尽管在此可使用诸如“第一”、“第二”和“第三”的术语来描述各种构件、组件、区域、层或部分,但是这些构件、组件、区域、层或部分将不受这些术语限制。更确切地说,这些术语仅用于将一个构件、组件、区域、层或部分与另一构件、组件、区域、层或部分区分开。因此,在本文档来自技高网...

【技术保护点】
1.一种对象识别方法,包括:通过执行神经网络的当前层的输入图与当前层的权重内核之间的卷积运算,生成当前层的输出图;基于神经网络中正在处理的激活数据的至少一部分的分布,确定当前层的输出图的轻量级格式;基于确定的轻量级格式,将与当前层的输出图对应的激活数据轻量化为具有低位宽。

【技术特征摘要】
2018.02.14 KR 10-2018-0018818;2018.03.19 KR 10-2011.一种对象识别方法,包括:通过执行神经网络的当前层的输入图与当前层的权重内核之间的卷积运算,生成当前层的输出图;基于神经网络中正在处理的激活数据的至少一部分的分布,确定当前层的输出图的轻量级格式;基于确定的轻量级格式,将与当前层的输出图对应的激活数据轻量化为具有低位宽。2.根据权利要求1所述的对象识别方法,其中,确定轻量级格式的步骤包括:基于当前层的输出图的最大值,确定轻量级格式。3.根据权利要求1所述的对象识别方法,其中,轻量化的步骤包括:基于确定的轻量级格式,将神经网络的与当前层的输出图对应的后续层的输入图轻量化为具有低位宽。4.根据权利要求1所述的对象识别方法,其中,轻量化的步骤包括:通过使用与确定的轻量级格式对应的值对神经网络的与当前层的输出图对应的后续层的输入图执行移位操作,来将后续层的输入图轻量化为具有低位宽。5.根据权利要求1所述的对象识别方法,还包括:从存储器加载当前层的输出图;基于加载的当前层的输出图,更新被配置为存储当前层的输出图的最大值的寄存器,其中,基于存储在寄存器中的值来执行确定轻量级格式的步骤。6.根据权利要求1所述的对象识别方法,其中,确定轻量级格式的步骤包括:基于神经网络的前一层的输出图的最大值,预测当前层的输出图的最大值;基于预测的当前层的输出图的最大值,确定当前层的输出图的轻量级格式。7.根据权利要求1所述的对象识别方法,其中,轻量化的步骤包括:通过使用与确定的轻量级格式对应的值对当前层的输出图执行移位操作,来将具有高位宽的当前层的输出图轻量化为具有低位宽。8.根据权利要求1所述的对象识别方法,还包括:基于通过卷积运算生成的当前层的输出图,更新被配置为存储当前层的输出图的最大值的寄存器,其中,基于存储在寄存器中的值,预测神经网络的后续层的输出图的最大值。9.根据权利要求1所述的对象识别方法,还包括:通过参考包括针对每个层和输出通道的权重内核的数据库,获得与当前层中当前正在处理的第一输出通道对应的第一权重内核,其中,生成当前层的输出图的步骤包括:通过执行当前层的输入图与第一权重内核之间的卷积运算,生成与第一输出通道对应的第一输出图。10.根据权利要求9所述的对象识别方法,其中,第一权重内核独立于与当前层的第二输出通道对应的第二权重内核而被确定。11.根据权利要求1所述的对象识别方法,其中,当前层的输入图和当前层的权重内核具有低位宽,当前层的输出图具有高位宽。12.一种存储指令的非暂时性计算机可读存储介质,其中,当所述指令由处理器执行时,使得处理器执行权利要求1所述的对象识别方法。13.一种对象识别设备,包括:处理器;存储器,包括能够由处理器读取的指令,其中,当所述指令由处理器执行时,处理器被配置为:通过执行神经网络的当前层的输入图与当前层...

【专利技术属性】
技术研发人员:孙昌用孙辰雨郑相一崔昌圭韩在濬
申请(专利权)人:三星电子株式会社
类型:发明
国别省市:韩国,KR

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1