【技术实现步骤摘要】
基于深度神经网络的司法审理首问题生成方法、装置、介质
[0001]本专利技术涉及自然语言处理领域,尤其涉及一种基于深度神经网络的司法审判首问题生成技术。
技术介绍
[0002]目前自然语言处理主要包括自然语言的认知,理解和生成等部分。通过这些部分,自然语言处理技术可以帮助人们快速地对大量的文本数据进行理解并据此提取生成有效信息。这一点能够很好地在法律领域发挥作用。在庭审法律文书的处理中,有一个非常关键的工作是首问题(leading question)的获取。首问题所指的就是法官所提出的第一个质询性问题,也将在很大程度上将决定后续质询性问题的方向。法官通常在决定首问题上会花费可观的时间和精力,来确保首问题之后的后续质询性问题可以准确地围绕案由核心展开。除了首问题之外,另一个非常重要的庭审文书处理工作是争议焦点的获取。争议焦点所指的就是在案由中最关键的核心信息。在民事案件的审理中,争议焦点主要通过分析原告与被告提供的信息所获取。这也是法官在做出判决时非常重要的一个信息依据。因此如果能够利用自然语言处理技术获取首问题和争议焦点便可以为法院节省可观的时间和精力从而加快案情审理的速度。
[0003]在自然语言处理领域,常常通过基于长短时记忆模型(LSTM)的循环神经网络(RNN)建立序列到序列模型,从而完成对自然语言的生成。近年来,注意力机制也被引入了序列到序列模型从而产生了序列到序列结合注意力模型,从而更进一步提升了自然语言生成的表现。然而,自然语言处理领域很常见的一个问题就是学习效果不佳。该专利技术所采用的多任务学 ...
【技术保护点】
【技术特征摘要】
1.一种基于深度神经网络的司法审理首问题生成方法,其特征在于,包括如下步骤:S1:获取法律文书,包括原告诉称文本和庭审记录文本,提取审理过程中的首问题和争议焦点,并构建成训练样本;S2:针对首问题生成任务和争议焦点生成任务,利用LSTM搭建序列到序列结合注意力机制模型;S3:基于序列到序列结合注意力机制模型,搭建多任务学习框架,利用争议焦点生成作为辅助任务,帮助完成首问题生成任务。2.如权利要求1中所述的基于深度神经网络的司法审理首问题生成方法,其特征在于,所述S1的具体步骤如下:S101:利用正则表达式从司法判决书中抽取原告诉称文本,利用jieba分词将原告诉称文本分割成词语构成的序列{x1,x2,...,x
M
},其中x
i
为原告诉称文本词语序列的第i个词语,M为原告诉称文本词语序列长度,i∈[1,M];S102:利用正则表达式从司法庭审文本中抽取首问题文本,利用jieba分词将首问题文本分割成词语构成的序列{y1,y2,...,y
N
},其中y
j
为首问题文本词语序列的第j个词语,N为首问题文本词语序列长度,j∈[1,N];S103:将庭审记录文本利用jieba分词分割为词语构成的序列{x
′1,x
′2,...,x
′
P
},其中x
′
k
为庭审记录文本词语序列的第k个词语,P为庭审记录文本词语序列长度,k∈[1,P];抽取庭审记录文本中的争议焦点文本,利用jieba分词将其分割为词语构成的序列{y
′1,y
′2,...,y
′
Q
},其中y
′
f
为争议焦点文本词语序列中第f个词语,Q为争议焦点文本词语序列中序列长度,f∈[1,Q];S104:将S101~S103中获得的词语序列构建为训练样本。3.如权利要求2中所述的基于深度神经网络的司法审理首问题生成方法,其特征在于,所述S2的具体步骤如下:S201:利用长短时记忆模型(LSTM)搭建一个两层的bidirectional LSTM编码器,用于对原告诉称文本词语序列进行编码,得到文本向量{h1,h2,...,h
M
},其中通过bidirectional LSTM编码器更新得到的文本表征向量为其中表示正向的隐藏状态,表示逆向的隐藏状态;再根据更新得到的文本表征向量,计算得到上下文向量其中为第l层隐藏层的权重,l∈[1,M];S202:利用LSTM搭建一个单层的单向LSTM-RNN解码器,并根据上下文向量和所有之前预测所得的词语{y1,...,y
t-1
}来预测第t步的词y
t
:其中,p(y)表示生成词序列y的概率,y=(y1,...,y
t
),为第t步的上下文向量,l∈[1,N];S203:基于利用LSTM所搭建的编码器和解码器,使用序列到序列结合注意力机制模型将原告诉称文本词语序列{x1,x2,...,x
M
}映射到词汇空间:
其中s
t
为解码器状态,为上下文向量,V,V
′
,b和b
′
是待学习的参数;最后预测的词的概率分...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。