一种半介入式的目标关键点标注方法技术

技术编号:29403527 阅读:59 留言:0更新日期:2021-07-23 22:41
本发明专利技术提供了一种半介入式的目标对象关键点标注方法,包括:1采集待标记目标对象佩戴N个指定颜色的球状标签图像;2基于自编码器的图像去标签还原模型;3球状标签定位模型。本发明专利技术能通过对目标对象进行半介入式的关键点标注,可以更精确、更容易获取目标对象关键点标注信息,从而实现快速、高效、适应性强的目标对象关键点标注。

【技术实现步骤摘要】
一种半介入式的目标关键点标注方法
本专利技术涉及计算机
,更具体地说是一种半介入式的目标对象关键点标注方法。
技术介绍
随着计算机视觉领域的不断发展,关键点识别技术已经应用到了越来越多的不限于人脸、人体等不同领域,其他的动物、植物等特定场景下的目标关键点识别也成为了热门研究方向。如何快速、准确地获取其关键点信息,不仅要求标注人员保持统一标准,还要求采集的图像素材有较高的质量标准。但是由于在模型训练过程中所需的数据量极大,标注人员手工标注的方式往往面临标注速度慢、标注质量低等问题。目前,并没有通用的、能够适应不同场景不同目标的标注方法来对大量数据进行标注。
技术实现思路
本专利技术为克服现有技术的不足之处,提供了一种半介入式的目标对象关键点标注方法,以期能更精确、更容易获取目标对象关键点标注信息,从而实现快速、高效、适应性强的目标对象关键点标注。本专利技术为达到上述专利技术目的,采用如下技术方案:本专利技术一种半介入式的目标关键点标注方法的特点在于,包括以下步骤:步骤1,在标记对象的N个关键点位置上设置与所述标记对象自身颜色不同的N个颜色C1,C2,...,CN的球状标签,其中,CN表示第N种颜色;步骤2,采集带有球状标签的标记对象的视频图像,记为D1={I1,I2,...,IM};IM表示第M个视频图像;M表示图像帧数;步骤3,利用自编码器图像还原模型对所述视频图像D1进行去标签还原处理,得到去标签后的视频图像D2={I’1,I’2,...,I’M};I’M表示第M个去标签后的视频图像;步骤4,利用训练后的球状标签定位模型对所述视频图像Itagged进行标签识别定位,得到关键点的坐标信息集合{P1(X1,Y1),P2(X2,Y2),...,PN(XN,YN)};PN(XN,YN)表示第N个关键点的坐标信息,N表示关键点数量。本专利技术所述的半介入式的目标关键点标注方法的特点也在于:所述步骤3包括以下步骤:步骤3.1,获取包含不同目标对象的M个关键点的图像数据集D3,利用M个颜色C1,C2,...,CM的球状标签对所述图像数据集D3上关键点的坐标位置进行标注,得到重绘后的图像数据集D4;其中,M大于等于N;将重绘后的图像数据集D4与图像数据集D3合并得到对偶的标记-无标记图像训练集;步骤3.2,建立自编码器网络结构,并初始化所述自编码器网络结构中的参数;其中,所述自编码器网络结构包括:由k个卷积层和k个最大值池化层所组成的编码器,以及由k+1个卷积层和k个上采样层组成的解码器;以所述重绘后的图像数据集D4作为初始化后的自编码器网络结构的输入,以图像数据集D3作为初始化后的自编码器网络结构的输出,对所述初始化后的自编码器网络结构进行训练,并使用Euclidean损失函数对各个卷积层的参数进行更新,直到自编码器网络结构收敛为止,从而得到自编码器图像还原模型。所述步骤4中的球状标签定位模型包括N个包含卷积模块以及M个全连接层;其中,每个卷积模块是由一个卷积层、一个激活层和一个池化层依次连接而成;使用重绘后的图像数据集D4分批次输入球状标签定位模型中,并计算Euclidean损失函数,直至损失函数收敛为止,从而得到训练后的球状标签定位模型。与现有技术相比,本专利技术的有益效果在于:1、本专利技术提出了一种半介入式的目标对象关键点标注方法,保证了标注质量的同时提升了数据标注速度。2、本专利技术提出了一种图像去标签还原方法,使用自编码器结构对图像上的标签进行擦除,能够较完整地恢复原图像内容。3、本专利技术提出了一种球状标签定位方法,使用卷积神经网络结构对球状标签进行定位,提供了精准的球状标签坐标信息。4、本专利技术提出了两阶段的级联神经网络骨骼关键点定位技术,检测速度更快,检测精度更高。附图说明图1示出本专利技术实施例的半介入式目标关键点标注方法流程图;图2示出本专利技术实施例的图像去标签还原模型流程图;图3示出本专利技术实施例的球状标签定位网络模型流程图。具体实施方式本实施例中,一种半介入式的目标关键点标注方法,包括:采集待标记目标对象佩戴N个指定颜色的球状标签图像;基于自编码器的图像去标签还原模型;球状标签定位模型。具体的说,是按如下步骤进行:步骤1,在标记对象的N个关键点位置上设置与标记对象自身颜色不同的N个颜色C1,C2,...,CN的球状标签,其中,CN表示第N种颜色;根据图1来在目标人体左肩关节、左髋关节、左膝关节分别佩戴红色、黄色、蓝色的球状标签,其中第一颜色球状标签作为第一个关键点标识,第二颜色球状标签作为第二关键点标识,以此类推,第N颜色球状标签作为第N关键点标识。步骤2,采集带有球状标签的标记对象的视频图像,记为D1={I1,I2,...,IM};IM表示第M个视频图像;M表示图像帧数;其中采集的图像数据中至少包括一个球状标签的数据为有效数据。步骤3,利用自编码器图像还原模型对视频图像D1进行去标签还原处理,得到去标签后的视频图像D2={I’1,I’2,...,I’M};I’M表示第M个去标签后的视频图像;步骤3.1,获取包含不同目标对象的M个关键点的图像数据集D3,利用M个颜色C1,C2,...,CM的球状标签对图像数据集D3上关键点的坐标位置进行标注,得到重绘后的图像数据集D4;其中,M大于等于N;具体为使用球状标签颜色对已知关键点数据集每张图进行关键点绘制,其中绘制颜色位置为该样本中关键点位置,绘制样式为圆形,绘制尺寸为该图像宽度的1/80,形成新的伪标签数据。以开源COCO数据集为基础,使用红色、黄色、蓝色、绿色对COCO数据集中不同关键点位置进行绘制,绘制样式为圆形,绘制尺寸为该图像宽度的1/80,得到重绘的COCO数据集。组合重绘的COCO数据集和原始COCO数据集,对应构成成对的原始-重绘数据对,作为自编码器的训练数据。将重绘后的图像数据集D4与图像数据集D3合并得到对偶的标记-无标记图像训练集,作为训练自编码器模型的输入数据;步骤3.2,建立自编码器网络结构,并初始化自编码器网络结构中的参数;其中,自编码器网络结构包括:由k个卷积层和k个最大值池化层所组成的编码器,以及由k+1个卷积层和k个上采样层组成的解码器;根据图2所示,初始化自编码器网络参数,使用重绘数据作为输入,一次经过卷积池化模块和上采样模块,得到输出与对应的原始数据计算得到Euclidean损失函数,并对网络参数进行反馈更新,直至第k批次图像数据使损失函数收敛至预设阈值,说明自编码器网络训练完成,得到针对红、黄、蓝、绿四色的图像去标签还原模型。初始化自编码器网络结构参数,其中包括3个卷积池化模块,卷积层和3个卷积上采样模块。其中3个卷积池化模块作为编码器对输入图像进行卷积池化操作,该中间结果作为输入到卷积层,依次再经过3个卷积上采样模块作为解码器,得到输出结果,与输入图像使用Euclidean损失函数对卷积层参本文档来自技高网...

【技术保护点】
1.一种半介入式的目标关键点标注方法,其特征在于,包括以下步骤:/n步骤1,在标记对象的N个关键点位置上设置与所述标记对象自身颜色不同的N个颜色C

【技术特征摘要】
1.一种半介入式的目标关键点标注方法,其特征在于,包括以下步骤:
步骤1,在标记对象的N个关键点位置上设置与所述标记对象自身颜色不同的N个颜色C1,C2,...,CN的球状标签,其中,CN表示第N种颜色;
步骤2,采集带有球状标签的标记对象的视频图像,记为D1={I1,I2,...,IM};IM表示第M个视频图像;M表示图像帧数;
步骤3,利用自编码器图像还原模型对所述视频图像D1进行去标签还原处理,得到去标签后的视频图像D2={I’1,I’2,...,I’M};I’M表示第M个去标签后的视频图像;
步骤4,利用训练后的球状标签定位模型对所述视频图像Itagged进行标签识别定位,得到关键点的坐标信息集合{P1(X1,Y1),P2(X2,Y2),...,PN(XN,YN)};PN(XN,YN)表示第N个关键点的坐标信息,N表示关键点数量。


2.根据权利要求1所述的半介入式的目标关键点标注方法,其特征在于:所述步骤3包括以下步骤:
步骤3.1,获取包含不同目标对象的M个关键点的图像数据集D3,利用M个颜色C1,C2,...,CM的球状标签对所述图像数据集D3上关键点...

【专利技术属性】
技术研发人员:孙嘉堃邓博存李嘉
申请(专利权)人:广东中卡云计算有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1