当前位置: 首页 > 专利查询>深圳大学专利>正文

基于视觉融合的目标分步定位方法、应用、装置及系统制造方法及图纸

技术编号:20547516 阅读:21 留言:0更新日期:2019-03-09 20:15
本发明专利技术公开了一种基于视觉融合的目标分步定位的方法,采集含有目标特征点的第一图像实现目标特征点粗定位,根据第一图像中包含的坐标信息,采集含有目标特征点信息的第二图像,进行精定位,获取第二图像中包含的坐标信息,根据不同的坐标系之间的转换关系,获得目标特征点基于同一坐标系下的坐标变换量,进而定位目标特征点。同时还公开了一种基于视觉融合的目标分步定位的应用、装置和系统,该技术方案将定位精度和大视场的条件分离,采用两个不同类型相机来实现分步定位,解决了当工件移动范围比较大的时,定位精度不足的问题,并且在螺丝孔较多时,无需重复拍照,能够减少拍照次数,提高了生产效率,具有精度高和定位高效的优点。

【技术实现步骤摘要】
基于视觉融合的目标分步定位方法、应用、装置及系统
本专利技术属于视觉定位
,特别涉及一种基于视觉融合的目标分步定位方法、应用、装置及系统。
技术介绍
利用视觉引导机器人进行自动化锁螺丝是目前自动化组装生产的一个热门解决方案,视觉技术结合工业机器人能够提高机器人柔性,在现有的技术方案中,机器人上装配了单视觉系统能够完成更高精度的锁螺丝任务,以及允许待组装工件在视觉视野范围内进行一定的移动。针对现有的螺丝机定位方法,在工件移动范围比较大的时候,对这类工件的螺丝孔进行定位精度会下降,甚至无法完成组装任务,如果出现安装工件的螺丝孔比较多的情况时,视觉系统重复拍照的时间又会占用比较长的时间,导致无法满足实际生产效率的要求,现阶段技术没有明确的方法解决该问题。
技术实现思路
本专利技术旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本专利技术的一个目的是提供基于视觉融合的目标分步定位方法、装置及系统,适用于在大范围内对多种工件进行视觉定位。本专利技术所采用的技术方案是:一种基于视觉融合的目标分步定位的方法,包括以下步骤:采集含有目标特征点信息的第一图像,以实现所述目标特征点的粗定位;根据所述第一图像中包含的坐标信息,采集含有所述目标特征点信息的第二图像,以进行精定位;获取所述第二图像中包含的坐标信息,经过标定结果转换,进而获得所述目标特征点的精定位坐标。进一步地,所述根据所述第一图像中包含的坐标信息,采集含有所述目标特征点信息的第二图像,以进行精定位的方法具体为:获取含有目标特征点信息的第一图像后,通过改变图像采集视野的范围,以对所述目标特征点进行再次图像采集,并获得所述第二图像。进一步地,所述方法包括:获取目标特征点在第一参照系下的坐标;获取目标特征点在第二参照系下的精定位坐标;获得所述第二参照系下的坐标与所述第一参照系下的坐标的变换量。进一步地,所述方法包括:根据第一参照系下其他目标点与所述目标特征点之间的位置关系,通过所述变换量,定位其余目标点在所述第二参照系下的坐标位置。进一步地,使用具有短焦距镜头的Eye-to-hand相机进行粗定位,所述第一图像中包含的坐标信息指目标特征点在所述Eye-to-hand相机坐标系下的坐标;使用具有长焦距镜头的Eye-in-hand相机进行精定位,所述第二图像中包含的坐标信息指所述目标特征点在所述Eye-in-hand相机坐标系下的坐标。进一步地,所述方法还包括:当所述定位目标有至少两个时,通过增加所述进行粗定位的相机数量,以进行至少两个定位目标的粗定位。另一方面,本专利技术还提供利用上述任一种基于视觉融合的目标分步定位的方法在引导螺丝机对放置于底板上的工件进行螺丝孔定位中的应用。另一方面,本专利技术还提供一种基于视觉融合的目标分步定位装置,包括设有目标特征点的底板,还包括第一相机和第二相机、微处理器和机器人,所述第二相机安装在机器人上,所述第一相机安装在底板上;所述微处理器的输出端与所述机器人的输入端连接;所述微处理器分别与第一相机和第二相机连接;所述微处理器用于发送采集图像指令,控制所述第一相机和第二相机采集待测目标图像,所述机器人用于接收微处理器发送的移动指令以进行位置移动;所述第一相机用于对底板上所述待测目标进行粗定位;所述第二相机用于对底板上所述待测目标进行精定位。进一步地,所述第一相机为采用短焦距镜头的Eye-to-hand相机,所述第二相机为采用长焦距镜头的Eye-in-hand相机。进一步地,所述微处理器与第一相机和第二相机之间分别采用USB通信方式;所述微处理器与机器人之间采用串口或网口通信方式。另一方面,本专利技术还提供一种基于视觉融合的目标分步定位系统,包括:图像获取模块,采集含有目标特征点信息的第一图像,以实现所述目标特征点的粗定位,并根据所述第一图像中包含的坐标信息,采集含有所述目标特征点信息的第二图像,以进行精定位;标定转换模块,获取所述第一和第二图像中包含的坐标信息,经过标定结果转换,进而获得所述目标特征点的粗定位坐标和精定位坐标;坐标定位模块,用于通过计算进行所述第一参照系下目标点在第二参照系下的坐标定位。本专利技术的有益效果是:本方案提供的一种基于视觉融合的目标分步定位方法,通过将定位精度和大视场的条件分离的方法实现分步定位,解决了现有定位技术中工件移动范围比较大的时候,对该类工件的螺丝孔进行定位时精度较低,甚至无法完成组装任务的问题。其中Eye-to-hand相机负责对待测工件进行大视野粗定位,其采用短焦距镜头,成像视野范围大,能够满足大范围定位的要求,Eye-in-hand相机负责小视场的精定位,其定位精度取决于小视场相机,也就是Eye-in-hand相机,其采用长焦距,具有镜头畸变小的优点,其标定的误差也较小,解决了工件大范围内移动的时候,精度下降的问题。当出现安装工件的螺丝孔比较多的情况时,视觉系统重复拍照的时间又会占用比较长的时间,导致无法满足实际生产效率的要求的问题,与现有技术相比,本专利技术在工件移动范围比较大的时候,其定位精度也能达到打螺丝的精度要求。该技术方案中对目标工件的摆放没有要求,无须工件放置在比较精确的位置,工件可以有旋转和平移,只需其处于Eye-to-hand相机的拍摄范围内即可,这样有大的作用范围,并且在螺丝孔较多时,无需对螺丝孔进行重复拍照,可以减少拍照次数,提高了生产效率,并且具有精度高的优点。附图说明图1是本专利技术一种实施例的基于视觉融合的目标分步定位方法流程图;图2是本专利技术一种实施例的基于视觉融合的目标分步定位装置组成框图;图3是本专利技术一种实施例的基于视觉融合的目标分步定位系统组成图;图4是本专利技术一种实施例的机械手坐标系和双相机坐标系示意图;图5是本专利技术一种实施例的基于视觉融合的目标分步定位方法示意图;图6是本专利技术一种实施例中用到的坐标系示意图;图7是本专利技术一种实施例的底板上CAD图纸坐标系示意图;图8是本专利技术一种实施例适用于多种工件的定位示意图;图9是本专利技术一种实施例的多个特征点圆心提取示意图。具体实施方式需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。实施例一:参照图1,是本专利技术实施例一的基于视觉融合的目标分步定位方法的流程图。本实施例的基于视觉融合的目标分步定位方法包括下列步骤:S1、采集含有目标特征点信息的第一图像实现所述目标特征点的粗定位;S2、根据所述第一图像中包含的坐标信息,在粗定位的位置,采集含有所述目标特征点信息的第二图像,以进行精定位,具体为:获取含有目标特征点信息的第一图像后,通过改变图像采集视野的范围,以对目标特征点进行再次图像采集,并获得第二图像;S3、获取所述第二图像中包含的坐标信息,经过标定结果转换,进而获得所述目标特征点的精定位坐标。S4:根据目标特征点在第一参照系下的坐标和精定位坐标,获得第二参照系下的精定位坐标与第一参照系下的坐标的变换量。S5:根据第一参照系下其他目标点与目标特征点之间的位置关系,通过第二参照系下的坐标与第一参照系下的坐标的变换量,定位其余目标点在第二参照系下的坐标位置。其中粗定位的具体过程为,通过使用具有短焦距镜头的Eye-to-hand相机进行定位,对放置在底板上并处于该相机拍摄范围内的目标特征点进行粗定位,并从获取的目标特征点本文档来自技高网...

【技术保护点】
1.一种基于视觉融合的目标分步定位的方法,其特征在于,包括以下步骤:采集含有目标特征点信息的第一图像,以实现所述目标特征点的粗定位;根据所述第一图像中包含的坐标信息,采集含有所述目标特征点信息的第二图像,以进行精定位;获取所述第二图像中包含的坐标信息,经过标定结果转换,进而获得所述目标特征点的精定位坐标。

【技术特征摘要】
1.一种基于视觉融合的目标分步定位的方法,其特征在于,包括以下步骤:采集含有目标特征点信息的第一图像,以实现所述目标特征点的粗定位;根据所述第一图像中包含的坐标信息,采集含有所述目标特征点信息的第二图像,以进行精定位;获取所述第二图像中包含的坐标信息,经过标定结果转换,进而获得所述目标特征点的精定位坐标。2.根据权利要求1所述的一种基于视觉融合的目标分步定位的方法,其特征在于,所述根据所述第一图像中包含的坐标信息,采集含有所述目标特征点信息的第二图像,以进行精定位的方法具体为:获取含有目标特征点信息的第一图像后,通过改变图像采集视野的范围,以对所述目标特征点进行再次图像采集,并获得所述第二图像。3.根据权利要求2所述的一种基于视觉融合的目标分步定位的方法,其特征在于,所述方法包括:获取目标特征点在第一参照系下的坐标;获取目标特征点在第二参照系下的精定位坐标;获得所述第二参照系下的坐标与所述第一参照系下的坐标的变换量。4.根据权利要求3所述一种基于视觉融合的目标分步定位的方法,其特征在于,所述方法包括:根据第一参照系下其他目标点与所述目标特征点之间的位置关系,通过所述变换量,定位其余目标点在所述第二参照系下的坐标位置。5.根据权利要求1至4任一种所述的基于视觉融合的目标分步定位的方法,其特征在于:使用具有短焦距镜头的Eye-to-hand相机进行粗定位,所述第一图像中包含的坐标信息指目标特征点在所述Eye-to-hand相机坐标系下的坐标;使用具有长焦距镜头的Eye-in-hand相机进行精定位,所述第二图像中包含的坐标信息指所述目标特征点在所述Eye-in-hand相机坐标系下的坐标。6.根据权利要求5所述的一种基于视觉融合的目标分步定位的方法,其特征在于,所述方法还包括:当所述...

【专利技术属性】
技术研发人员:田劲东胡荣镇李东田勇
申请(专利权)人:深圳大学
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1