【技术实现步骤摘要】
一种基于BERT的深度神经网络模型的自动评卷方法
[0001]本专利技术涉及教育技术与计算机应用
,尤其是一种基于BERT的深度神经网络模型的自动评卷方法,可广泛应用于各个领域的简答题计算机自动阅卷系统中。
技术介绍
[0002]考试试卷中的试题从答案组成的形式上,被普遍分为客观题与主观题两大类。答案以选项编号表示的单选题、多选题、判断题等试题被称为客观题,而答案采用自然语言表示的简答题、名词解释和论述题等试题被称为主观题。由于单选题、多选题、判断题等客观题目的答案都是以选项编号表示,目前计算机对于此类题型进行自动阅卷时,只需将标准答案的选项编号与学生答案的选项编号进行简单的匹配运算,匹配成功则答案正确,该处理技术已经取得较好的成果。但对于答案采用自然语言表示的主观题自动阅卷技术,如:对简答题、名词解释和论述题等自动评卷,由于其受到自然语言理解、模式识别等理论与技术瓶颈影响,效果不是很理想。
[0003]主观题不同于客观题,不仅需要采用自然语言表示答案,而且具有一定的主观性,允许学生在一定的范围内答题,因此答案往往不是唯一的,而且学生答题的方式会有多种形式。另一方面,教师在批阅试卷的时候,还可能会受到主观因素的影响,以及学生字体是否美观、卷面是否整洁等的影响,使得教师在评卷时,出现不合理的加分或扣分现象,有失考试的公正性和公平性。主观题的计算机自动阅卷,既减轻了教师人工阅卷的劳动强度,又减少人为因素的影响,保证了阅卷的客观性、公正性,因此对主观题计算机自动阅卷技术的研究,具有重要的意义。然而,由于主观题 ...
【技术保护点】
【技术特征摘要】
1.一种基于BERT的深度神经网络模型的自动评卷方法,其特征在于包括以下步骤:S1.BERT编码层:将输入序列s送入BERT编码层进行处理,所述BERT编码层以微调的方式运行,得到BERT编码层的输出O
BERT
,并把O
BERT
作为简答题评卷的初始编码;S2.语义细化层:使用Bi
‑
LSTM网络为BERT编码层的输出O
BERT
提取精细的全局上下文,使用Capsule网络为BERT编码层隐藏状态提取相关局部上下文,Bi
‑
LSTM网络和Capsule网络并行工作,得到输出和O
Caps
;S3.语义融合层:通过语义融合层将语义细化层的三种输出语义和O
Caps
整合在一起,得到简答题评卷的连接语义表示X;使用一个多头注意力共同关注X中不同位置的信息,得到简答题评卷的融合语义表示X
(h)
;S4.预测层:对简答题评卷的融合语义表示X
(h)
执行一个最大池化操作,得到简答题评卷的最终语义表示Z,将Z输入到一个线性变换层,进行评卷区间的预测概率计算,获得使预测概率为最大值的评卷区间;S5.将标准交叉熵损失函数中的计算标签改进为三重热点黄金分布,训练实现最小化Ω中所有训练学生答案的损失误差,Ω是自动简答题评卷任务中的训练学生答案的集合。2.根据权利要求1所述的自动评卷方法,其特征在于:所述步骤S1具体包括:S1.1 BERT编码层的输入序列s是由学生答案和参考答案的句子对所组成,如下所示:其中,w
[CLS]
是BERT分类符[CLS]的编码,是学生答案的字词编码序列,q是学生答案,是参考答案的字词编码序列,p是主观题题目T的参考答案,w
[SEP]
是BERT分隔符[SEP]的编码,u是学生答案中字词的个数,v是参考答案中字词的个数,n是输入序列s的长度,且n=u+v+3,d
w
是BERT中字符编码的维度;所述“字词”是指文本经Bert的分词器Tokenzier分离出的语言片段;S1.2将输入序列s送入BERT编码层进行处理,得到BERT编码层的输出O
BERT
,并把O
BERT
作为简答题评卷的初始编码,计算过程如下:其中,BERT(
·
)表示BERT编码层,是BERT编码层的第i个隐藏状态,d
b
是BERT编码层的隐藏单元数。3.根据权利要求2所述的自动评卷方法,其特征在于:所述步骤S2具体包括:所述步骤S2具体包括:所述步骤S2具体包括:其中,表示一个按从左到右时序处理O
BERT
的LSTM网络,表示一
个按从右到左时序处理O
BERT
的LSTM网络,表示网络的输出,表示网络的输出,Capsules(O
BERT
)表示一个输入为O
BERT
的Capsule网络,O
Caps
表示Capsules(O
BERT
)网络的输出,分别表示和网络中第i个时间步的隐藏状态,表示Capsule网络中卷积胶囊层的第i个输出向量,d
L
是LSTM网络中隐藏单元的数量,d
c
是Capsule网络中卷积核的数量;对和O
Caps
使用layer normalization进行层归一化处理,处理为
‑
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。