The invention discloses a gesture recognition method and system based on depth information. The method includes: training CNN model of human body parts response, inputting image read by camera, obtaining response map of upper body parts of human body through training model prediction, thereby judging the position of hand and separating the position picture of hand parts; training CNN model based on hand joint points, realizing end-to-end. The position of the joint points at the end of the hand is located; the image of the segmented hand position is preprocessed and input into the model to predict the position of the joint points and fit into gestures; the distance between the position of the finger joint points and the position of the center of the palm is calculated, and the gestures matching the position relationship are judged. The method and system of gesture recognition based on depth information proposed by the invention can read depth information in complex scenes and interact with the display by recognizing gesture.
【技术实现步骤摘要】
基于深度信息的手势识别方法及系统
本专利技术属于图像处理与智能交互
,涉及一种基于深度信息的手势识别方法及系统。
技术介绍
随着科学技术的发展,人机交互的研究与应用受到越来越多的学者关注。其中,手势识别作为人机交互的一个主要分支,是人机交互领域的重要研究课题之一。手势交互对于使用者而言具有便捷、交互性强、表达内容丰富等优点,一直是人机交互方式的首要选择。在深度摄像头普及之前,手势识别多采用二维RGB图像输入,容易受到复杂背景的干扰,准确性不能达到理想的交互效果。有鉴于此,如今迫切需要设计一种新的手势识别方式,以便克服现有手势识别方式存在的上述缺陷。
技术实现思路
本专利技术提供一种基于深度信息的手势识别方法及系统,可在复杂场景下,读取深度信息,通过识别手势与显示器进行交互。为解决上述技术问题,根据本专利技术的一个方面,采用如下技术方案:一种基于深度信息的手势识别方法,所述方法包括:步骤S1、设置深度摄像头读取深度图像的深度空间范围,并读取图像;步骤S2、训练人体部件响应的卷积神经网络CNN模型,输入摄像头读取的图像,通过训练的模型预测,得到人体上半身部件响应图,从而判断手的位置,并分割手部位置图片;步骤S3、训练基于手部关节点的卷积神经网络CNN模型,实现端到端的关节点定位;步骤S4、将步骤S2中分割的手部位置图片预处理并输入模型中进行关节点位置预测,并拟合成手势;步骤S5、计算手指关节点位置与手掌中心位置的距离,判断与位置关系相匹配的手势。作为本专利技术的一种实施方式,首先对手部关节点空间特征进行提取并对位置进行迭代优化,结合多尺度特征进行训练,对手部 ...
【技术保护点】
1.一种基于深度信息的手势识别方法,其特征在于,所述方法包括:步骤S1、设置深度摄像头读取深度图像的深度空间范围,并读取图像;步骤S2、训练人体部件响应的卷积神经网络CNN模型,输入摄像头读取的图像,通过训练的模型预测,得到人体上半身部件响应图,从而判断手的位置,并分割手部位置图片;步骤S3、训练基于手部关节点的卷积神经网络CNN模型,实现端到端的关节点定位;步骤S4、将步骤S2中分割的手部位置图片预处理并输入基于手部关节点的CNN模型中进行关节点位置预测,并拟合成手势;步骤S5、计算手指关节点位置与手掌中心位置的距离,判断与位置关系相匹配的手势。
【技术特征摘要】
1.一种基于深度信息的手势识别方法,其特征在于,所述方法包括:步骤S1、设置深度摄像头读取深度图像的深度空间范围,并读取图像;步骤S2、训练人体部件响应的卷积神经网络CNN模型,输入摄像头读取的图像,通过训练的模型预测,得到人体上半身部件响应图,从而判断手的位置,并分割手部位置图片;步骤S3、训练基于手部关节点的卷积神经网络CNN模型,实现端到端的关节点定位;步骤S4、将步骤S2中分割的手部位置图片预处理并输入基于手部关节点的CNN模型中进行关节点位置预测,并拟合成手势;步骤S5、计算手指关节点位置与手掌中心位置的距离,判断与位置关系相匹配的手势。2.根据权利要求1所述的基于深度信息的手势识别方法,其特征在于:所述步骤S3中,首先对手部关节点空间特征进行提取并对位置进行迭代优化,结合多尺度特征进行训练,对手部的关节点位置进行最终确定,并在全连接层中对关节点进行匹配连接,拟合完整的手部结构。3.根据权利要求1所述的基于深度信息的手势识别方法,其特征在于:所述步骤S3中的卷积神经网络CNN模型,采用多尺度图像输入,将上一个尺度提取出的关节点位置作为空间特征合并当前尺度提取出的图像特征,求出新的关节点位置向量,并作为新的空间特征合并下一尺度的特征图,通过回归函数得到关节点位置,并匹配连接成手势:pt=R(pt-1,F)其中,pt-1表示上一尺度的图像空间特征,F表示当前尺度的图像特征,pt表示当前图像手部关节点位置。4.根据权利要求3所述的基于深度信息的手势识别方法,其特征在于:步骤S3中,通过6个5X5卷积层,3个池化层提取图像特征,卷积前填充2行边缘像素,使提取出的特征图宽高与输入图像宽高相同;对图像特征提取兴趣区域,对每个兴趣区域在全连接层中通过回归函数得到关节点位置,将关节点位置返回兴趣区域,形成空间特征图。5.根据权利要求4所述的基于深度信息的手势识别方法,其特征在于:兴趣区域按图像的4个边角位置为起点提取,分别截取特征图像的2/3大小的宽与高,能包含手部的全部图像信息;此处2/3将截取的图像与下一尺度图像尺寸匹配合并;特征合并为在截取的四个区域图像上得到关节点位置空间特征与下一尺度的图像特征合并。6.根据权利要求1所述的基于深度信息的手势识别方法,其特征在于:步骤S5中,将步骤S3中得到的各个关节点位置坐标提取出来,计算5个手指的顶点位置与手掌关节点的距离dj,j表示当前手指类别,并设置一个阈值σ,当dj<σ认为手指为弯曲状态,否则为伸展状态。7.根据权利要求1所述的基于深度信息的手势识别方法,其特征在于:所述方法还包括步骤S6、在显示器屏幕中间初始化一个手的图标,通...
【专利技术属性】
技术研发人员:朱志林,方勇,
申请(专利权)人:上海易维视科技股份有限公司,
类型:发明
国别省市:上海,31
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。