字符级自注意力网络模型及字符型验证码安全检测方法技术

技术编号:39411394 阅读:11 留言:0更新日期:2023-11-19 16:03
本发明专利技术公开了一种字符级的自注意力网络模型及字符型验证码安全检测方法,模型包括:堆叠多尺度卷积主干网络能对输入的字符型验证码图片进行初步的特征提取并输出特征向量以及下采样操作;字符级自注意力Transformer网络与堆叠多尺度卷积主干网络输出端连接,其编码器用于对所述堆叠卷积主干网络输出的特征向量进行表征,解码器用于根据输入字符型验证码图片对应的右移字符序列和编码器的输出,得出对所述字符型验证码图片的字符序列的预测概率输出。该模型通过针对性地学习相邻字符之间的相关性,实现对字符序列更高效鲁棒的表征,在小训练数据集上表现出良好的泛化性能,大幅降低了识别验证码所需的时间和人力开销。大幅降低了识别验证码所需的时间和人力开销。大幅降低了识别验证码所需的时间和人力开销。

【技术实现步骤摘要】
字符级自注意力网络模型及字符型验证码安全检测方法


[0001]本专利技术涉及计算机视觉及网络安全领域,尤其涉及一种字符级自注意力网络模型及字符型验证码安全检测方法。

技术介绍

[0002]字符型验证码是一类含有复杂的背景噪声和扭曲字符的图片,人类容易识别其中的字符,而机器难以识别。这类字符型验证码被广泛应用于各种网络的安全性保护。为了客观评估字符型验证码的安全性能,现有技术主要设计端到端的深度神经网络尝试识别字符型验证码,通过识别率对该字符型验证码的安全性进行度量。
[0003]目前基于深度网络模型的字符型验证码的识别方法主要有:
[0004](1)基于卷积神经网络的识别方法。参见对比文献1:Wang,J.,et al.“CAPTCHA recognition based on deep convolutional neural network”.Mathematical Biosciences and Engineering 2019。
[0005](2)基于循环神经网络

注意力机制的识别方法。参见对比文献2:Yang,Z.,et al.“An End

to

End Attack on Text CAPTCHAs”.IEEE Transactions on Information Forensics and Security 2020。
[0006]现有识别方法中,训练深度网络模型需要搜集和标注大量的字符型验证码图片,往往需要近万张,甚至数万张、数十万张字符型验证图片对模型进行训练才能有效识别。但字符型验证码图片更新频繁、风格易变的特点导致这种方法需要的时间和人力开销往往难以接受,适用性受到了严重的限制。
[0007]有鉴于此,特提出本专利技术。

技术实现思路

[0008]本专利技术的目的是提供了一种基于字符级自注意力网络模型的字符型验证码安全检测方法,能基于较少数量的样本,就能训练准确的字符型验证码识别模型,进而解决现有技术中存在的上述技术问题。
[0009]本专利技术的目的是通过以下技术方案实现的:
[0010]本专利技术实施方式一种字符级的自注意力网络模型,包括:
[0011]堆叠多尺度卷积主干网络、字符级自注意力Transformer网络;其中,
[0012]所述堆叠多尺度卷积主干网络的输入端输入所识别字符型验证码图片,该堆叠多尺度卷积主干网络能对输入的字符型验证码图片进行初步的特征提取并输出特征向量,以及进行下采样操作;
[0013]所述字符级自注意力Transformer网络,与所述堆叠多尺度卷积主干网络的输出端连接,该字符级自注意力Transformer网络由编码器连接解码器构成,所述编码器用于对所述堆叠卷积主干网络输出的特征向量进行表征,所述解码器以所识别验证码图片对应标注的字符序列向右移一位处理后的右移字符序列作为输入,同时根据所述编码器的输出,
得出对所述字符型验证码图片的字符序列的预测概率输出。
[0014]本专利技术实施方式还提供一种字符级的自注意力网络模型的字符型验证码安全检测方法,采用本专利技术所述的字符级的自注意力网络模型,包括以下步骤:
[0015]在目标网站上搜集数量为600~1000张字符型验证码图片,通过人工识别的方式,对每一张图片的字符序列进行标注,得到训练数据集,然后对所述字符级的自注意力网络模型进行训练,直到该字符级的自注意力网络模型的参数收敛,即完成该字符级的自注意力网络模型的训练;
[0016]利用训练好的字符级的自注意力网络模型,对需要进行安全检测的字符型验证码图片进行检测,根据检测结果判定所检测字符型验证码图片的安全性。
[0017]与现有技术相比,本专利技术所提供的基于字符级自注意力网络模型的字符型验证码安全检测方法,其有益效果包括:
[0018]通过采用堆叠多尺度卷积主干网络和字符级自注意力Transformer网络组成的网络模型,能实现在少数量的小训练数据集(指包含不多于1000字符型验证码图片的训练数据集)上表现出良好识别性能,在字符型验证码图片的安全性检测中,大幅降低构建评估方法所需的时间和人力开销,很好的解决了现有验证码安全性评估方法中需要搜集和标注大量的验证码图片的缺陷。
附图说明
[0019]为了更清楚地说明本专利技术实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
[0020]图1为本专利技术实施例提供的基于字符级自注意力网络模型的堆叠多尺度卷积主干网络的构成示意图。
[0021]图2为本专利技术实施例提供的基于字符级自注意力网络模型的字符级自注意力Transformer网络的构成示意图。
[0022]图3为本专利技术实施例提供的基于字符级自注意力网络模型的T
e
=2时编码器字符级自注意力计算过程示意图。
[0023]图4为本专利技术实施例提供的基于字符级自注意力网络模型的不同训练样本数量下的泛化性能示意图;
[0024]图5为本专利技术实施例提供的基于字符级自注意力网络模型的不同的感知区域阈值T
e
对应的模型识别性能示意图;
[0025]图6为本专利技术实施例提供的基于字符级自注意力网络模型的EBAY、搜狐、网易和百度验证码识别结果示意图。
具体实施方式
[0026]下面结合本专利技术的具体内容,对本专利技术实施例中的技术方案进行清楚、完整地描述;显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例,这并不构成对本专利技术的限制。基于本专利技术的实施例,本领域普通技术人员在没有做出创造性劳动前提
下所获得的所有其他实施例,都属于本专利技术的保护范围。
[0027]首先对本文中可能使用的术语进行如下说明:
[0028]术语“和/或”是表示两者任一或两者同时均可实现,例如,X和/或Y表示既包括“X”或“Y”的情况也包括“X和Y”的三种情况。
[0029]术语“包括”、“包含”、“含有”、“具有”或其它类似语义的描述,应被解释为非排它性的包括。例如:包括某技术特征要素(如原料、组分、成分、载体、剂型、材料、尺寸、零件、部件、机构、装置、步骤、工序、方法、反应条件、加工条件、参数、算法、信号、数据、产品或制品等),应被解释为不仅包括明确列出的某技术特征要素,还可以包括未明确列出的本领域公知的其它技术特征要素。
[0030]术语“由
……
组成”表示排除任何未明确列出的技术特征要素。若将该术语用于权利要求中,则该术语将使权利要求成为封闭式,使其不包含除明确列出的技术特征要素以外的技术特征要素,但与其相关的常规杂质除外。如果该术语只是出现在权利要求的某子句中,那么其仅限定在该子句中明确列出的要素,其他子句中所记载的要素并不被本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种字符级的自注意力网络模型,其特征在于,包括:堆叠多尺度卷积主干网络、字符级自注意力Transformer网络;其中,所述堆叠多尺度卷积主干网络的输入端输入所识别字符型验证码图片,该堆叠多尺度卷积主干网络能对输入的字符型验证码图片进行初步的特征提取并输出特征向量,以及进行下采样操作;所述字符级自注意力Transformer网络,与所述堆叠多尺度卷积主干网络的输出端连接,该字符级自注意力Transformer网络由编码器连接解码器构成,所述编码器用于对所述堆叠卷积主干网络输出的初级特征向量进行表征,所述解码器以所识别字符型验证码图片对应标注的字符序列向右移一位处理后的右移字符序列作为输入,同时根据所述编码器的输出,得出对所述字符型验证码图片的字符序列的预测概率输出。2.根据权利要求1所述的字符级的自注意力网络模型,其特征在于,所述堆叠多尺度卷积主干网络是由多个堆叠的卷积神经网络组成的多尺度卷积的ResNet网络;所述字符级自注意力Transformer网络的编码器由依次连接的位置编码模块和多层堆叠的编码器字符级自注意力层组成,其中,所述位置编码模块的输入连接所述堆叠多尺度卷积主干网络的输出端;所述多层堆叠的编码器字符级自注意力层包括:依次连接的多头自注意力层、字符级掩码层、合并归一化层、前馈网络层和合并归一化层;所述字符级自注意力Transformer网络的解码器由依次连接的字符标签向量嵌入层、位置编码模块、单层的解码器字符级自注意力层、多层堆叠的编码器

解码器自注意力层线性变换层和softmax层组成,其中,所述字符标签向量嵌入层的输入端,用于输入以所识别字符型验证码图片对应标注的字符序列向右移一位处理后的右移字符序列;所述单层的解码器字符级自注意力层包括:依次连接的多头自注意力层、字符级掩码层和合并归一化层;所述多层堆叠的编码器

解码器多头自注意力层包括:依次连接的多头自注意力层、合并归一化层、前馈网络层和合并归一化层;所述编码器的输出连接所述解码器的多层堆叠的编码器

解码器自注意力层的输入端。3.根据权利要求1所述的字符级的自注意力网络模型,其特征在于,所述多尺度卷积的ResNet网络包括:1
×
1卷积、5
×
5卷积、3
×
3卷积和2
×
2最大池化层;其中,所述1
×
1卷积代表映射短路连接,3
×
3卷积和5
×
5卷积分别提取不同邻域范围内的字符结构特征;所述1
×
1卷积、5
×
5卷积、3
×
3卷积的组合输入端连接作为该多尺度卷积的ResNet网络的输入端,该1
×
1卷积、5
×
5卷积、3
×
3卷积的输出组合端与2
×
2最大池化层连接;所述2
×
2最大池化层以步长为2、窗口大小为2
×
2对卷积输出在组合后进行下采样。4.根据权利要求3所述的字符级的自注意力网络模型,其特征在于,所述5
×
5卷积由两个叠加的3
×
3卷积组成。
5.根据权利要求1至4任一项所述的字符级的自注意力网络模型,其特征在于,所述字符级自注意力Transformer网络的编码器按以下方式对所述堆叠卷积主干网络输出的初级特征向量进行表征,包括:所述编码器的位置编码模块用以下公式(1)表示的绝对位置编码将位置信息嵌入到所述初级特征向量中得出对应于不同位置i的向量f
i

,所述公式(1)为:所述公式(1)中,为特征向量中对应于位置i的向量;中对应于位置i的向量;为第i个元素为1,其余元素均为0的独热编码向量[0,0,

,0,1,0,

0];为权值参数矩阵,用于对独热编码向量进行线性变换;l
f
、d
h
分别为特征向量f对应的特征长度和特征通道数;将对应于不同位置i的向量f
i

组合成位置编码后的特征向量f

;所述编码器的多头自注意力层对所述位置编码后的特征向量f

分别通过线性变换映射为查询矩阵Q、键矩阵K和值矩阵V,用所述查询矩阵Q和的键矩阵的转置矩阵K
T

【专利技术属性】
技术研发人员:卿轲张荣
申请(专利权)人:中国科学技术大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1