The invention discloses a robot visual tracking method and system, the method includes: using convolutional neural network, get the tracking target region of interest; attitude information of the current location information and determine the robot robot; according to the region of interest, the tracking target detection, to determine the current position information tracking; according to the current position information of the robot's current position information of the robot pose information and the target tracking, control the robot to track the target tracking. The present invention is based on depth convolution neural network and visual SLAM technology for target recognition and tracking, and can improve the robustness.
【技术实现步骤摘要】
一种机器人视觉跟踪方法及系统
本专利技术涉及机器人
,尤其涉及一种机器人视觉跟踪方法及系统。
技术介绍
在机器人应用当中,如何让机器人自动的跟踪目标进行运动和活动是人工智能领域的核心问题之一。目前,基于机器视觉的机器人目标跟踪算法主要有:方法一,基于子区域匹配的目标跟踪方法;方法二,基于卡尔曼滤波和粒子滤波的滤波性跟踪算法。好的跟踪算法应该要有很好的鲁棒性,而上述方法受外在条件和目标运动规律的限制,很难保证算法鲁棒性。其中,方法一基于颜色作为匹配特征,采用迭代的方法寻找当前帧中目标的可能位置,该方法快速高效,但是存在的问题是其对于光照条件十分敏感,当光线变化严重时,很难保证算法的鲁棒性;方法二是一种目前应用较广泛的目标跟踪方法,其基于线性高斯假设,能很有效地预测目标的线性运动。不过,当目标运动不再符合线性假设时,该方法所预测的目标位置往往会产生较大的偏差。
技术实现思路
针对现有技术中的缺陷,本专利技术提供一种机器人视觉跟踪方法及系统,基于深度卷积神经网络和视觉SLAM技术进行目标识别和跟踪,能够提高其鲁棒性。第一方面,本专利技术提供了一种机器人视觉跟踪方法,所述方法包括:利用深度卷积神经网络,获取跟踪目标的感兴趣区域;确定机器人的当前位置信息和机器人的姿态信息;根据所述感兴趣区域,对所述跟踪目标进行检测,确定所述跟踪目标的当前位置信息;根据所述机器人的当前位置信息、所述机器人的姿态信息和所述跟踪目标的当前位置信息,控制机器人对所述跟踪目标进行跟踪。进一步地,所述利用深度卷积神经网络,获取跟踪目标的感兴趣区域,具体包括:采用RGBD相机,采集场景地图中当 ...
【技术保护点】
一种机器人视觉跟踪方法,其特征在于,所述方法包括:利用深度卷积神经网络,获取跟踪目标的感兴趣区域;确定机器人的当前位置信息和机器人的姿态信息;根据所述感兴趣区域,对所述跟踪目标进行检测,确定所述跟踪目标的当前位置信息;根据所述机器人的当前位置信息、所述机器人的姿态信息和所述跟踪目标的当前位置信息,控制机器人对所述跟踪目标进行跟踪。
【技术特征摘要】
1.一种机器人视觉跟踪方法,其特征在于,所述方法包括:利用深度卷积神经网络,获取跟踪目标的感兴趣区域;确定机器人的当前位置信息和机器人的姿态信息;根据所述感兴趣区域,对所述跟踪目标进行检测,确定所述跟踪目标的当前位置信息;根据所述机器人的当前位置信息、所述机器人的姿态信息和所述跟踪目标的当前位置信息,控制机器人对所述跟踪目标进行跟踪。2.根据权利要求1所述的机器人视觉跟踪方法,其特征在于,所述利用深度卷积神经网络,获取跟踪目标的感兴趣区域,具体包括:采用RGBD相机,采集场景地图中当前帧场景图像的RGB通道图像;对所述RGB通道图像进行预处理,输出感兴趣区域图像;将所述感兴趣区域图像输入深度卷积神经网络;从所述深度卷积神经网络的所述感兴趣区域图像中获取所述感兴趣区域。3.根据权利要求2所述的机器人视觉跟踪方法,其特征在于,所述对所述RGB通道图像进行预处理,输出感兴趣区域图像,具体包括:对所述RGB通道图像进行卷积、非线性激活和池化,得到特征图;将所有特征图输入到用于预测兴趣区的子网络,并对所述特征图进行池化,输出所述感兴趣区域图像。4.根据权利要求1所述的机器人视觉跟踪方法,其特征在于,所述确定机器人的当前位置信息和机器人的姿态信息,具体包括:根据所述机器人在上一时刻的位置信息,初步确定所述机器人的当前位置信息;将所述感兴趣区域与所述语义地图进行特征匹配,进一步确定所述机器人的当前位置信息和所述机器人的姿态信息。5.根据权利要求1所述的机器人视觉跟踪方法,其特征在于,所述根据所述感兴趣区域,对所述跟踪目标进行检测,确定所述跟踪目标的当前位置信息,具体包括:识别所述感兴趣区域中包含的二维码,根据所述二维码检测所述跟踪目标;在检测到所述跟踪目标的情况下,根据所述感兴趣区域、所述机器人的位置信息和所述机器人的姿态信息,确定所述跟踪目标的当前位置信息。6.根据权利要求4所述的机器人视觉跟踪方法,其特征在于,所述根据所述感兴趣区域,对所述跟踪目标进行检测,确定所述跟踪目标的当前位置信息,具体包括:识别所述感兴趣区域...
【专利技术属性】
技术研发人员:张绍明,
申请(专利权)人:杭州司兰木科技有限公司,
类型:发明
国别省市:浙江,33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。