The present invention discloses a synchronous recognition and positioning method of an unstructured robot visual inspection machine part, including reading a video sequence of a T frame video image obtained by a visual sensor installed in an industrial robot arm, showing the image data table of the first frame in the video sequence as {I (x, y)}tT=1, and applying the nearest neighbor interpolation method. The image size of the above first frame is reduced; the image of the reduced size is input into the mechanical part convolution neural network model, the model parameter M is trained according to the mechanical part convolution neural network model, and the estimated prediction P (x, y|M) per frame of the output image I (x, y) is given to the industrial robot control system, and the input image is realized. It corresponds to the location and recognition of mechanical parts, so that industrial robots can pick up parts. The invention can deal with the large dynamic changes of the surrounding environment, can cope with the unstructured manufacturing conditions, and can calculate the efficiency at the same time, while ensuring the recognition and positioning accuracy.
【技术实现步骤摘要】
非结构化机器人视觉检测机械零件的同步识别与定位方法
本专利技术属于计算机视觉
,具体涉及具有轻量级架构、可处理周围环境的大动态变化、能够应对非结构化制造条件、在保证识别和定位精度的同时计算效率较高的非结构化机器人视觉检测机械零件的同步识别与定位方法。
技术介绍
由于具有非接触性、高速和高精度检测的特点,机械与电子工程行业机器人对于不同类型的机械零部件进行可视化检测具有很高的吸引力。近年来,视觉检测已成为高科技工业机器人视觉领域的一个发展趋势和不可或缺的技术,以视觉装置和图像处理算法为技术手段,以视觉伺服定位为目的,对产品质量进行评估、鲁棒识别和精确定位以及在工业检测平台上对机械零部件进行本地化制造和熟练操作。在实际工业检测领域中,高性能机械零件检测方法对机器人视觉检测算法的研究和开发提出了巨大的挑战。首先,工业CCD相机视场中的机械零件通常存在由制造现场照明变化而引起大动态的外观变化。机械零件的外观变化,诸如颜色、亮度漂移和对比度的降低,必然会对工业机器人的正常检测性能产生阻碍作用。其次,待检测的机械目标可能处于静止状态或运动状态,其移动速度通常在不同工作时刻发生变化。静态/运动状态的不确定性以及移动速度的变化导致机械零件在抓取操纵过程中定位精度受到限制。第三,因为机械零部件通常是以任意方式来放置,机器人有必要识别具有不同姿势的不同类型机械零部件。另外,在CCD相机的视场中,安装在末端执行器上的手持式CCD摄像机产生移动,姿势将不可避免地发生变化。目前,虽然也有针对周围环境的大动态变化的非结构化制造条件下的视觉同步识别与定位的方法,诸如基于重量层为2 ...
【技术保护点】
1.非结构化机器人视觉检测机械零件的同步识别与定位方法,其特征在于包括图像采集、图像预处理、识别与定位步骤,具体包括:A、图像采集:读取一个安装于工业机器人手臂的视觉传感器获得的包含T帧视频图像的视频序列,将视频序列中的第I帧的图像数据表示为{I(x, y)}tT=1,其中:I(x, y) 表示在t时刻捕获的第I帧中位置(x, y) 处像素的RGB颜色矢量,t ∈ {1, . . . , T };B、图像预处理:应用最近邻插值法将A步骤中的第I帧的图像尺寸缩小;C、识别与定位:将B步骤预处理的图像输入机械零件卷积神经网络模型,根据机械零件卷积神经网络模型训练所学习的模型参数M,输出图像I(x,y)每帧对应的估计预测p(x, y|M)给工业机器人控制系统,实现输入图像与机械零件的位置和识别预测之间所期望的端对端对应,以便工业机器人拾取待识别零件。
【技术特征摘要】
1.非结构化机器人视觉检测机械零件的同步识别与定位方法,其特征在于包括图像采集、图像预处理、识别与定位步骤,具体包括:A、图像采集:读取一个安装于工业机器人手臂的视觉传感器获得的包含T帧视频图像的视频序列,将视频序列中的第I帧的图像数据表示为{I(x,y)}tT=1,其中:I(x,y)表示在t时刻捕获的第I帧中位置(x,y)处像素的RGB颜色矢量,t∈{1,...,T};B、图像预处理:应用最近邻插值法将A步骤中的第I帧的图像尺寸缩小;C、识别与定位:将B步骤预处理的图像输入机械零件卷积神经网络模型,根据机械零件卷积神经网络模型训练所学习的模型参数M,输出图像I(x,y)每帧对应的估计预测p(x,y|M)给工业机器人控制系统,实现输入图像与机械零件的位置和识别预测之间所期望的端对端对应,以便工业机器人拾取待识别零件。2.根据权利要求1所述非结构化机器人视觉检测机械零件的同步识别与定位方法,其特征在于所述B步骤中应用最近邻插值法将A步骤中的第I帧的图像尺寸缩小1≤x≤256和1≤y≤320。3.根据权利要求2所述非结构化机器人视觉检测机械零件的同步识别与定位方法,其特征在于所述C步骤中机械零件卷积神经网络模型架构依次包括卷积层1、卷积层2、卷积层3、卷积层4、卷积层5、卷积层6、卷积层7、全连接层1、全连接层2、全连接层3、去卷积层1、去卷积层2、去卷积层3,所述各卷积层和各全连接层结构的构建源于VGG-16的模型架构,所述各去卷积层通过内插粗糙输出来获得密集预测。4.根据权利要求3所述非结构化机器人视觉检测机械零件的同步识别与定位方法,其特征在于所述C步骤中卷积层1、卷积层2、卷积层3、卷积层4的滤波器组的维数分别为:3×3×3×64、3×3×64×64、3×3×64×128、3×3×128×128,所述卷积层5、卷积层6、卷积层7的滤波器组的维数分别为:3×3×128×256、3×3×256×256、3×3×256×256,所述去全连接层1、全连接层2、全连接层3的滤波器组的维数分别为:7×7×256×1024、1×1×1024×1024、1×1×1024×6,所述各卷积层和全连接层都配备了称为整型线性单元ReLU(·)=max(0,·)的非线性激活函数。5.根据权利要求3所述非结构化机器人视觉检测机械零件的同步识别与定位方法,其特征在于所述C步骤中去卷积层1、去卷积层2、去卷积层3的滤波器组的维度均固定为4×4×6×6,所述各去卷积层通过内插粗糙输出来获得...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。