机械臂抓取模型的训练方法、装置、电子设备及存储介质制造方法及图纸

技术编号:37764734 阅读:6 留言:0更新日期:2023-06-06 13:23
本发明专利技术公开了一种机械臂抓取模型的训练方法、装置、电子设备及存储介质。该方法包括:获取机械臂待抓取物体的环境状态信息;将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。上述技术方案,通过分段式奖励函数确定奖励信息,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。提升使用机械臂抓取模型抓取物体的成功率。提升使用机械臂抓取模型抓取物体的成功率。

【技术实现步骤摘要】
机械臂抓取模型的训练方法、装置、电子设备及存储介质


[0001]本专利技术涉及机器视觉
,尤其涉及一种机械臂抓取模型的训练方法、装置、电子设备及存储介质。

技术介绍

[0002]随着人工智能技术的发展,相关智能机器人遍布各行各业。其对提高工业生产效率、降低生成成本以及提高产品质量发挥着至关重要的作用。
[0003]现有技术中,已经将强化学习引入到了机械臂的控制和规划当中,使机械臂在与环境的交互过程中,具有一定的识别、判断、比较、鉴别、记忆和自行调整能力。
[0004]目前,强化学习在环境奖励上存在稀疏奖励的问题,即当机械臂在抓取物体失败时,获得的奖励一直为0,无法获得正向奖励来提升机械臂的抓取策略,导致机械臂抓取模型的训练效果差,以及在使用机械臂抓取模型进行物体抓取时抓取成功率低。

技术实现思路

[0005]本专利技术提供了一种机械臂抓取模型的训练方法、装置、电子设备及存储介质,以提升机械臂抓取模型的训练精度,从而提升使用机械臂抓取模型进行物体抓取的成功率。
[0006]根据本专利技术的一方面,提供了一种机械臂抓取模型的训练方法,包括:
[0007]获取机械臂待抓取物体的环境状态信息;
[0008]将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
[0009]基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
[0010]根据本专利技术的另一方面,提供了一种机械臂抓取模型的训练装置,包括:
[0011]环境状态信息获取模块,用于获取机械臂待抓取物体的环境状态信息;
[0012]奖励信息确定模块,用于将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
[0013]抓取模型训练模块,用于基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
[0014]根据本专利技术的另一方面,提供了一种电子设备,所述电子设备包括:
[0015]至少一个处理器;
[0016]以及与所述至少一个处理器通信连接的存储器;
[0017]其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本专利技术任一实施例所述的机械臂抓取模型的训练方法。
[0018]根据本专利技术的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储
介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本专利技术任一实施例所述的机械臂抓取模型的训练方法。
[0019]本专利技术实施例的技术方案,通过获取机械臂待抓取物体的环境状态信息,进而将机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息,进而基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息对待训练模型进行训练,得到机械臂抓取模型。上述技术方案,通过分段式奖励函数确定奖励信息,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。
[0020]应当理解,本部分所描述的内容并非旨在标识本专利技术的实施例的关键或重要特征,也不用于限制本专利技术的范围。本专利技术的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0021]为了更清楚地说明本专利技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0022]图1是根据本专利技术实施例一提供的一种机械臂抓取模型的训练方法的流程图;
[0023]图2是根据本专利技术实施例二提供的一种机械臂抓取模型的训练方法的流程图;
[0024]图3是根据本专利技术实施例三提供的一种机械臂抓取模型的训练方法的流程图;
[0025]图4是根据本专利技术实施例三提供的一种待训练网络的结构示意图;
[0026]图5是根据本专利技术实施例三提供的一种模型仿真的结果示意图;
[0027]图6是根据本专利技术实施例四提供的一种机械臂抓取模型的训练装置的结构示意图;
[0028]图7是实现本专利技术实施例的机械臂抓取模型的训练方法的电子设备的结构示意图。
具体实施方式
[0029]为了使本
的人员更好地理解本专利技术方案,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分的实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本专利技术保护的范围。
[0030]需要说明的是,本专利技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本专利技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0031]实施例一
[0032]图1为本专利技术实施例一提供的一种机械臂抓取模型的训练方法的流程图,本实施例可适用于基于视觉的强化学习的机械臂抓取模型训练的情况,该方法可以由机械臂抓取模型的训练装置来执行,该机械臂抓取模型的训练装置可以采用硬件和/或软件的形式实现,该机械臂抓取模型的训练装置可配置于计算机终端和/或服务器中。如图1所示,该方法包括:
[0033]S110、获取机械臂待抓取物体的环境状态信息。
[0034]本实施例中,环境状态信息(State)是指代理在当前环境中所处的状态,可以包括但不限于图像长度、图像宽度和RGB(Red Green Blue)颜色。
[0035]具体的,可以从电子设备的预设存储位置获取机械臂待抓取物体的环境状态信息;或者,可以从与电子设备相连接的其他电子设备获取机械臂待抓取物体的环境状态信息,其他电子设备可以为设置在机械臂上的摄像头等。
[0036]S120、将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息。
[0037]本实施例中,分段式奖励函数为根据抓取距离设计的分段式的奖励函数,可以用于确定所采取动作的奖励。奖励信息(Reward)为在环境状态下采取动作的奖励。
[0038]在一些实施例中,分段式奖励函数可以由两个奖励本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种机械臂抓取模型的训练方法,其特征在于,包括:获取机械臂待抓取物体的环境状态信息;将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。2.根据权利要求1所述的方法,其特征在于,所述分段式奖励函数包括渐进奖励函数和抓取奖励函数;相应的,所述将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息,包括:将所述机械臂待抓取物体的环境状态信息输入至所述渐进奖励函数,得到渐进奖励信息;将所述机械臂待抓取物体的环境状态信息输入至所述抓取奖励函数,得到抓取奖励信息;基于所述渐进奖励信息和所述抓取奖励信息确定奖励信息。3.根据权利要求2所述的方法,其特征在于,所述渐进奖励函数为:r
tendency
=v(s
t+1
)

v(s
t
);其中,r
tendency
表示渐进奖励函数,v(s
t
)表示当前环境状态的价值函数,v(s
t+1
)表示下一环境状态的价值函数。4.根据权利要求2所述的方法,其特征在于,所述抓取奖励函数为:其中,r
grasping
表示抓取奖励函数,v(s
t
)表示当前环境状态的价值函数,grasp∩v(s
t
)表示机械臂抓取到物体并且当前环境状态的价值函数大于预设价值阈值,δ表示预设价值阈值。5.根据权利要求1所述的方法,其特征在于,所述基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型,包括:基于所述奖励信息确定评论家网络层的损失,基于所述评论家网络层的损失更新评论家网络层的网络参数;基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息确定演员网络层的损失,基于所述演员网络层的损失更新演员网络层的网络参数;直至满足所述待训练模型的停止训练条件,得到机械臂抓取模型。6.根据权利要求5所述的方法,其特征在于...

【专利技术属性】
技术研发人员:王俊伟尚鹏王通吴继鹏苏栋楠
申请(专利权)人:中国科学院深圳先进技术研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1