文本检测模型训练方法、文本检测方法、装置及设备制造方法及图纸

技术编号:29972277 阅读:16 留言:0更新日期:2021-09-08 09:51
本发明专利技术公开了文本检测模型训练方法、文本检测方法、装置及设备。所述方法包括:获取设定数量的图像样本;分割各所述图像样本中所包括的文本区域,得到训练样本数据;使用所述训练样本数据对预先构建的多无锚区域候选网络进行训练,得到训练好的文本检测模型。利用该方法,能够提高场景文本检测效率。能够提高场景文本检测效率。能够提高场景文本检测效率。

【技术实现步骤摘要】
文本检测模型训练方法、文本检测方法、装置及设备


[0001]本专利技术实施例涉及文化检测
,尤其涉及文本检测模型训练方法、文本检测方法、装置及设备。

技术介绍

[0002]文本检测就是要定位图像中的文字区域,然后通常以边界框的形式将单词或文本行标记出来。
[0003]由于文本自身宽高比的特殊性,一般的目标检测算法检测文本效果并不理想。相关技术在进行文本检测时,采用没有预设边框的检测网络。
[0004]但是应用于自然场景中的文本,又称场景文本,由于其在尺度、纵横比,特别是方向上的变化比一般物体的变化更大,使得在使用没有预设边框的检测网络对场景文本进行检测时效率低下。

技术实现思路

[0005]本专利技术实施例提供了文本检测模型训练方法、文本检测方法、装置及设备,提高了场景文本检测效率。
[0006]第一方面,本专利技术实施例提供了一种文本检测模型训练方法,包括:
[0007]获取设定数量的图像样本;
[0008]分割各所述图像样本中所包括的文本区域,得到训练样本数据;
[0009]使用所述训练样本数据对预先构建的多无锚区域候选网络进行训练,得到训练好的文本检测模型。
[0010]可选的,分割各所述图像样本中所包括的文本区域,得到训练样本数据,包括:
[0011]从所述图像样本中选取一个图像样本作为待标注图像;
[0012]获取所述待标注图像中文本区域的中心线;
[0013]根据所述中心线上的采样点,确定所述待标注图像上子图像的边界点;
[0014]继续选取新的待标注图像确定对应的边界点直至所有图像样本均确定完对应的边界点;
[0015]将各所述图像样本、各所述图像样本对应的边界点和各所述图像样本中心线上的采样点作为训练样本数据。
[0016]可选的,所述根据所述中心线上的采样点,确定所述待标注图像上子图像的边界点,包括:
[0017]分别确定所述中心线上相邻两个采样点的中点在所述中心线上的切线;
[0018]确定各切线的法线;
[0019]将各所述法线与所述待标注图像中文本区域的交点和所述待标注图像中文本区域首尾的边界点,确定为所述待标注图像上子图像的边界点。
[0020]可选的,所述子图像的个数与所述采样点的个数相同,所述采样点作为对应子图
像中心点均匀分布在对应的中心线上。
[0021]可选的,所述多无锚区域候选网络的损失函数基于中心点损失函数和边界点损失函数之和确定;
[0022]所述中心点损失函数的计算方式如下:
[0023]其中,K为采样点的数量,L
cls
为是否为文本中的点的损失函数,L
loc
为中心点位置的损失函数;
[0024]所述边界点损失函数的计算方式如下:
[0025]其中,L
loc
是边界点位置的损失函数。
[0026]第二方面,本专利技术实施例还提供了一种文本检测方法,包括:
[0027]获取待测图像;
[0028]将所述待测图像输入文本检测模型,得到所述待测图像所包括子图像的中心点和所述中心点对应的边界点;
[0029]通过所述待测图像所包括子图像的中心点过滤对应的边界点;
[0030]对过滤后的边界点进行拟合,确定所述待测图像中文本区域的位置信息;
[0031]其中,所述文本检测模型基于本专利技术实施例所述的方法训练得到。
[0032]第三方面,本专利技术实施例还提供了一种文本检测模型训练装置,包括:
[0033]获取模块,用于获取设定数量的图像样本;
[0034]分割模块,用于分割各所述图像样本中所包括的文本区域,得到训练样本数据;
[0035]训练模块,用于使用所述训练样本数据对预先构建的多无锚区域候选网络进行训练,得到训练好的文本检测模型。
[0036]第四方面,本申请实施例提供了一种文本检测装置,包括:
[0037]获取模块,用于获取待测图像;
[0038]输入模块,用于将所述待测图像输入文本检测模型,得到所述待测图像所包括子图像的中心点和所述中心点对应的边界点;
[0039]过滤模块,用于通过所述待测图像所包括子图像的中心点过滤对应的边界点;
[0040]拟合模块,用于对过滤后的边界点进行拟合,确定所述待测图像中文本区域的位置信息;
[0041]其中,所述文本检测模型基于本专利技术实施例所述的方法训练得到。
[0042]第五方面,本申请实施例提供了一种终端设备,包括:
[0043]一个或多个处理器;
[0044]存储装置,用于存储一个或多个程序;
[0045]所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本专利技术实施例提供的方法。
[0046]第六方面,本专利技术实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本专利技术实施例提供的方法。
[0047]本专利技术实施例提供了文本检测模型训练方法、文本检测方法、装置及设备,该方法首先获取设定数量的图像样本;然后分割各所述图像样本中所包括的文本区域,得到训练
样本数据;最后使用所述训练样本数据对预先构建的多无锚区域候选网络进行训练,得到训练好的文本检测模型。利用上述技术方案,由于在训练多无锚区域候选网络时对图像样本中的文本区域进行了分割,故能够提高场景文本检测效率。
附图说明
[0048]图1为本专利技术实施例一提供的一种文本检测模型训练方法的流程示意图;
[0049]图2为本专利技术实施例二提供的一种文本检测方法的流程示意图;
[0050]图3为本专利技术示例实施例提供的一种图像样本的示意图;
[0051]图4为本专利技术示例实施例提供的一种文本区域标注示意图;
[0052]图5为本专利技术示例实施例提供的一种中心线拟合示意图;
[0053]图6为本专利技术示例实施例提供的一种采样点示意图;
[0054]图7为本专利技术示例实施例提供的一种法线示意图;
[0055]图8为本专利技术示例实施例提供的一种边界点示意图;
[0056]图9为本专利技术实施例三提供的一种文本检测模型训练装置的结构示意图;
[0057]图10为本专利技术实施例四提供的一种文本检测装置的结构示意图;
[0058]图11为本专利技术实施例五提供的一种终端设备的结构示意图。
具体实施方式
[0059]下面结合附图和实施例对本专利技术作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本专利技术,而非对本专利技术的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本专利技术相关的部分而非全部结构。
[0060]在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种文本检测模型训练方法,其特征在于,包括:获取设定数量的图像样本;分割各所述图像样本中所包括的文本区域,得到训练样本数据;使用所述训练样本数据对预先构建的多无锚区域候选网络进行训练,得到训练好的文本检测模型。2.根据权利要求1所述的方法,其特征在于,分割各所述图像样本中所包括的文本区域,得到训练样本数据,包括:从所述图像样本中选取一个图像样本作为待标注图像;获取所述待标注图像中文本区域的中心线;根据所述中心线上的采样点,确定所述待标注图像上子图像的边界点;继续选取新的待标注图像确定对应的边界点直至所有图像样本均确定完对应的边界点;将各所述图像样本、各所述图像样本对应的边界点和各所述图像样本中心线上的采样点作为训练样本数据。3.根据权利要求2所述的方法,其特征在于,所述根据所述中心线上的采样点,确定所述待标注图像上子图像的边界点,包括:分别确定所述中心线上相邻两个采样点的中点在所述中心线上的切线;确定各切线的法线;将各所述法线与所述待标注图像中文本区域的交点和所述待标注图像中文本区域首尾的边界点,确定为所述待标注图像上子图像的边界点。4.根据权利要求2所述的方法,其特征在于,所述子图像的个数与所述采样点的个数相同,所述采样点作为对应子图像中心点均匀分布在对应的中心线上。5.根据权利要求1所述的方法,其特征在于,所述多无锚区域候选网络的损失函数基于中心点损失函数和边界点损失函数之和确定;所述中心点损失函数的计算方式如下:其中,K为采样点的数量,L
cls
为是否为文本中的点的损失函数,L
loc
为中心点位置的损失函数;所述边界点损失函数的计算方式如下:其中,L
loc
是边界点...

【专利技术属性】
技术研发人员:高凯珺
申请(专利权)人:上海眼控科技股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1