【技术实现步骤摘要】
一种基于BERT神经网络和多任务学习的主观题自动评阅方法
[0001]本专利技术涉及人工智能与智慧教育的交叉领域,尤其是一种基于BERT神经网络和多任务学习的主观题自动评阅方法,可广泛应用于各个学科的主观题计算机自动阅卷系统中。
技术介绍
[0002]考试试卷中的试题从答案组成的形式上,被普遍分为客观题与主观题两大类。答案以选项编号表示的单选题、多选题、判断题等试题被称为客观题,而答案采用自然语言表示的简答题、名词解释和论述题等试题被称为主观题。由于单选题、多选题、判断题等客观题目的答案都是以选项编号表示,目前计算机对于此类题型进行自动阅卷时,只需将标准答案的选项编号与学生答案的选项编号进行简单的匹配运算,匹配成功则答案正确,该处理技术已经取得较好的成果。但对于答案采用自然语言表示的主观题自动阅卷技术,如:对简答题、名词解释和论述题等自动评卷,由于其受到自然语言理解、模式识别等理论与技术瓶颈影响,效果不是很理想。
[0003]在传统的主观题计算机自动阅卷系统中,普遍采用关键字匹配技术进行主观题自动阅卷,即在答案中标注 ...
【技术保护点】
【技术特征摘要】
1.一种基于BERT神经网络和多任务学习的主观题自动评阅方法,包含学生答案消代和主观题自动评阅两种任务的学习,其特征在于包括以下步骤:S1.以题干作为知识源,使用共享的BERT神经网络和多头注意力进行编码,对学生答案的代词进行消代;S2.将标准答案和消代后的学生答案形成的句对,作为自动评阅学习任务的输入序列,使用共享的BERT神经网络进行编码和分类,得到学生答案的评分等级;S3.通过联合计算步骤S1和步骤S2的损失函数,联合训练一个具有学生答案代词消代与主观题自动评阅的多任务神经网络模型;S4.使用步骤S3训练成型的多任务神经网络模型,对任意的学生答案进行消代与评阅;所述共享的BERT神经网络是指步骤S1和步骤S2中共享参数的BERT神经网络;所述BERT神经网络是指Google AI Language提出的Bidirectional Encoder Representations from Transformers(BERT)语言模型。2.根据权利要求1所述的一种基于BERT神经网络和多任务学习的主观题自动评阅方法,其特征在于:所述步骤S1具体包括:S1.1以由等待消代的代词p、包含代词的学生答案S={s1,s2,
…
,s
m1
}与BERT编码符号所组成的句对1序列SP1作为代词语义提取的输入序列,将题干T={t1,t2,
…
,t
n1
}与BERT编码符号所组成的题干序列ST作为题干语义生成的输入序列,如下所示:SP1={[CLS],s1,s2,
…
,s
m1
,[SEP],p,[SEP]}
ꢀꢀꢀꢀꢀꢀꢀꢀ
(1)ST={[CLS],t1,t2,
…
,t
n1
,[SEP]}
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)其中,[CLS]是BERT分类符的编码,[SEP]是BERT结束符的编码,p∈S是学生答案S中等待消代的代词,n1是题干T的长度,m1是学生答案S的长度;S1.2将题干序列ST和句对1序列SP1分别送入共享的BERT神经网络进行编码,得到题干语义表示C
ST
、句对1语义表示C
SP1
和代词语义向量v
p
,计算过程如下所示:计算过程如下所示:计算过程如下所示:其中,BERT(
·
)表示共享的BERT神经网络,h
cls
、h
sep
分别是编码[CLS]和[SEP]在BERT 中对应的隐藏状态,分别是题干序列ST和学生答案S中的词在BERT中对应的隐藏状态,h
p
是代词p在BERT中对应的隐藏状态,d是共享的BERT神经网络的隐藏单元数,k1是题干序列ST的长度且有k1=n1+2,k2是句对1序列SP1的长度且有k2=m1+4;S1.3将代词语义向量v
p
连接到题干语义表示C
ST
中的每一个隐藏状态,然后通过线性变换和多头注意力得到题干语义融合表示计算过程如下所示:计算过程如下所示:计算过程如下所示:
其中,F
TP
是连接代词语义向量后的题干语义连接表示,f
i
是F
TP
中的第i个元素,是C
ST
中的第i个元素,符号“;”表示连接运算,是一个权重矩阵,是一个偏置向量;是将F
TP
线性变换后的题干语义浓缩表示;表示输入的多头注意力MHA(Q,K,V);S1.4使用题干语义融合表示进行代词成分位置抽取,得到代词成分在中的开始位置u
s
和结束位置u
e
,进而使用题干序列ST得到代词成分E,计算过程如下所示:首先,计算中所有隐藏状态的开始位置和结束位置的概率:中所有隐藏状态的开始位置和结束位置的概率:其中,为用于计算开始位置概率的权重向量,为用于计算结束位置概率的权重向量,b1...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。