用于确定深度神经网络的耗时的方法和装置制造方法及图纸

技术编号:25223808 阅读:20 留言:0更新日期:2020-08-11 23:13
本申请公开了用于确定深度神经网络的耗时的方法和装置,涉及计算机视觉技术领域。具体实施方式包括:确定待处理深度神经网络包括的处理层,以及获取所确定的处理层的参数的值;在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,作为所确定的处理层的运算耗时,其中,该运算耗时数据集中包括对应存储的值与参数为该值的处理层的运算耗时;基于各个所确定的处理层的运算耗时,确定该待处理深度神经网络的运算耗时。本申请可以避免确定深度神经网络的运算耗时需要进行的实时网络运算步骤,直接利用预设的运算耗时数据集,快速、准确地查找出待处理深度神经网络的运算耗时。

【技术实现步骤摘要】
用于确定深度神经网络的耗时的方法和装置
本申请实施例涉及计算机
,具体涉及计算机视觉
,尤其涉及用于确定深度神经网络的耗时的方法和装置。
技术介绍
随着深度学习技术的发展,该技术逐渐应用于越来越多的场景中,并且起到了举足轻重的作用。例如行人检测、无人驾驶、智慧零售等场景,都依赖于深度学习来完成特定任务。目前产业结合深度学习已是大势所趋,一方面能够提升效果,另一方面能够降低人工成本。每种进行深度学习的神经网络都有相应的耗时,为了能够在应用中对深度神经网络进行更好的控制,可以对深度神经网络的耗时进行测算。
技术实现思路
提供了一种用于确定深度神经网络的耗时的方法、装置、电子设备以及存储介质。根据第一方面,提供了一种用于确定深度神经网络的耗时的方法,包括:确定待处理深度神经网络包括的处理层,以及获取所确定的处理层的参数的值;在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,作为所确定的处理层的运算耗时,其中,运算耗时数据集中包括对应存储的值与参数为该值的处理层的运算耗时;基于各个所确定的处理层的运算耗时,确定待处理深度神经网络的运算耗时。根据第二方面,提供了一种用于确定深度神经网络的耗时的装置,包括:获取单元,被配置成确定待处理深度神经网络包括的处理层,以及获取所确定的处理层的参数的值;查找单元,被配置成在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,作为所确定的处理层的运算耗时,其中,运算耗时数据集中包括对应存储的值与参数为该值的处理层的运算耗时;确定单元,被配置成基于各个所确定的处理层的运算耗时,确定待处理深度神经网络的运算耗时。根据第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如用于确定深度神经网络的耗时的方法中任一实施例的方法。根据第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如用于确定深度神经网络的耗时的方法中任一实施例的方法。根据本申请的方案,本申请的上述实施例提供的方法可以避免确定深度神经网络的运算耗时需要进行的实时网络运算步骤,直接利用预设的运算耗时数据集,快速、准确地查找出待处理深度神经网络的运算耗时。附图说明通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:图1是本申请一些实施例可以应用于其中的示例性系统架构图;图2a是根据本申请的用于确定深度神经网络的耗时的方法的一个实施例的流程图;图2b是根据本申请的用于确定深度神经网络的耗时的方法中运算耗时数据集中卷积层的相关数据的示意图;图3是根据本申请的用于确定深度神经网络的耗时的方法的一个应用场景的示意图;图4是根据本申请的用于确定深度神经网络的耗时的方法中确定运算耗时数据集的一个实施例的流程图;图5是根据本申请的用于确定深度神经网络的耗时的装置的一个实施例的结构示意图;图6是用来实现本申请实施例的用于确定深度神经网络的耗时的方法的电子设备的框图。具体实施方式以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。图1示出了可以应用本申请的用于确定深度神经网络的耗时的方法或用于确定深度神经网络的耗时的装置的实施例的示例性系统架构100。如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频类应用、直播应用、即时通信工具、邮箱客户端、社交平台软件等。这里的终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对接收到的待处理的深度神经网络等数据进行分析等处理,并将处理结果(例如该深度神经网络的运算耗时)反馈给终端设备。需要说明的是,本申请实施例所提供的用于确定深度神经网络的耗时的方法可以由服务器105或者终端设备101、102、103执行,相应地,用于确定深度神经网络的耗时的装置可以设置于服务器105或者终端设备101、102、103中。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。继续参考图2a,示出了根据本申请的用于确定深度神经网络的耗时的方法的一个实施例的流程200。该用于确定深度神经网络的耗时的方法,包括以下步骤:步骤201,确定待处理深度神经网络包括的处理层,以及获取所确定的处理层的参数的值。在本实施例中,用于确定深度神经网络的耗时的方法运行于其上的执行主体(例如图1所示的服务器或终端设备)可以确定出待处理的深度神经网络所包括的各个处理层,并获取这些处理层中每个处理层的参数的值。具体地,待处理深度神经网络可以是各种各样的,比如,卷积神经网络、残差神经网络等等。处理层可以是深度神经网络中的各种处理单元,比如卷积层、激活层等等。处理层的参数的值是可以变动的,比如卷积的步长的值。步骤202,在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,作为所确定的处理层的运算耗时,其中,运算耗时数据集中包括对应存储的值与参数为该值的处理层的运算耗时。在本实施例中,上述执行主体可以在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,并将查找到的运算耗时作为所确定的处理层的运算耗时。值与参数为该值的处理层的运算耗时在运算耗时数据集中是对应存储的,也即,该值与该运算耗时是存在对应关系的。因而,只要确定本文档来自技高网...

【技术保护点】
1.一种用于确定深度神经网络的耗时的方法,所述方法包括:/n确定待处理深度神经网络包括的处理层,以及获取所确定的处理层的参数的值;/n在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,作为所确定的处理层的运算耗时,其中,所述运算耗时数据集中包括对应存储的值与参数为该值的处理层的运算耗时;/n基于各个所确定的处理层的运算耗时,确定所述待处理深度神经网络的运算耗时。/n

【技术特征摘要】
1.一种用于确定深度神经网络的耗时的方法,所述方法包括:
确定待处理深度神经网络包括的处理层,以及获取所确定的处理层的参数的值;
在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,作为所确定的处理层的运算耗时,其中,所述运算耗时数据集中包括对应存储的值与参数为该值的处理层的运算耗时;
基于各个所确定的处理层的运算耗时,确定所述待处理深度神经网络的运算耗时。


2.根据权利要求1所述的方法,其中,所述运算耗时数据集通过以下步骤得到:
根据深度神经网络的处理层的待赋值运算公式,生成与该处理层的参数的多个值分别对应的、该处理层的多个运算公式;
获取执行所述多个运算公式分别对应的运算的运算耗时,其中,所确定的每个运算耗时为利用相同运算公式进行至少两次运算的运算耗时的平均值;
对于所述多个运算公式中的运算公式,将该运算公式中的参数的值和该运算公式对应的运算耗时,对应存储于运算耗时数据集。


3.根据权利要求2所述的方法,其中,深度神经网络包括不同种的处理层;所述根据深度神经网络的处理层的待赋值运算公式,生成与该处理层的参数的多个值分别对应的、该处理层的多个运算公式,包括:
根据每种处理层的待赋值运算公式,生成与每种处理层的参数的多个值分别对应的多个运算公式,其中,所述不同种的处理层包括:卷积层、池化层和全连接层。


4.根据权利要求3所述的方法,其中,所述运算耗时数据集包括与所述不同种的处理层分别对应的不同的运算耗时子集;
所述对于所述多个运算公式中的运算公式,将该运算公式中的参数的值和该运算公式对应的运算耗时,对应存储于运算耗时数据集,包括:
对于每种处理层的参数的多个值分别对应的多个运算公式中的运算公式,将该运算公式中的参数的值和该运算公式对应的运算耗时,对应存储于该种处理层对应的运算耗时子集,其中,所述不同的运算耗时子集包括卷积运算耗时子集、池化运算耗时子集和全连接运算耗时子集。


5.根据权利要求4所述的方法,其中,所述在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算耗时,作为所确定的处理层的运算耗时,包括:
对于每个所确定的处理层,基于该处理层的种类,将所述运算耗时数据集的运算耗时子集中,该处理层对应的运算耗时子集作为与该处理层对应的目标运算耗时子集;
在所述目标运算耗时子集中,查找该处理层的参数的值所对应的运算耗时。


6.根据权利要求2所述的方法,其中,所述运算耗时数据集与指定电子设备相关联;
所述获取执行所述多个运算公式分别对应的运算的运算耗时,包括:
获取所述指定电子设备执行所述多个运算公式分别对应的运算的运算耗时;以及
所述基于各个所确定的处理层的运算耗时,确定所述待处理深度神经网络的运算耗时,包括:
基于各个所确定的处理层的运算耗时,确定所述指定电子设备执行所述待处理深度神经网络中的运算的运算耗时。


7.一种用于确定深度神经网络的耗时的装置,所述装置包括:
获取单元,被配置成确定待处理深度神经网络包括的处理层,以及获取所确定的处理层的参数的值;
查找单元,被配置成在预设的运算耗时数据集中,查找所确定的处理层的参数的值所对应的运算...

【专利技术属性】
技术研发人员:苑鹏程韩树民冯原辛颖
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1