【技术实现步骤摘要】
representation
三部分,将每一条发言内容转换成指定维度的句向量,然后将句向量作为序列标注部分的输入
。
[0013]进一步优选的,所述句子编码处理具体包括:
[0014]Bert
预训练模型
Pre
‑
trained BERT
采用多层
transformer
编码器,每个编码器由多头自注意力机制和前馈网络组成,每个编码器的输出作为下一个编码器的输入,最终输出的矩阵维度为
[B,L,H],其中
B
代表批次导入模型的句子数量,
L
代表输入句子的最大长度,
H
代表编码器的维度;
[0015]最大池化层
Max
‑
pooling
对
Bert
预训练层的输出结果进行采样,保留最显著的语义特征,减少参数量,防止模型过拟合,将每个句子的特征矩阵从二维转化为一维,具体维度可表示为
[B,L];
[0016]句向量输出层
Sentence representation
将最大池化层输出向量转化成指定维度的向量,作为最终的句向量,最终输出的矩阵维度为
[B,E],其中
E
代表句向量的维度
。
[0017]优选的,序列标注处理包括:
[0018]对传统的卷积神经网络模型进行改造,以获得能够完成实体标注类任务的能力;
[0019]采用卷积核进行语义特征提取,将相同位置的 ...
【技术保护点】
【技术特征摘要】
1.
一种基于文本标签预测的聊天话题识别方法,其特征在于,该方法包括如下步骤:响应于获取所需处理的聊天数据信息并进行预处理;利用已训练的深度学习模型对预处理后的所述聊天数据信息进行处理,包括句子编码和序列标注;通过所述深度学习模型从所述聊天数据信息中识别出所需的特定内容并进行进一步处理
。2.
根据权利要求1所述的基于文本标签预测的聊天话题识别方法,其特征在于,所述句子编码处理包括:采用基于
Bert
的网络结构
Sentence Bert
,包括
Bert
预训练模型
Pre
‑
trained BERT、
最大池化层
Max
‑
pooling
和句向量输出层
Sentence representation
三部分,将每一条发言内容转换成指定维度的句向量,然后将句向量作为序列标注部分的输入
。3.
根据权利要求2所述的基于文本标签预测的聊天话题识别方法,其特征在于,所述句子编码处理具体包括:
Bert
预训练模型
Pre
‑
trained BERT
采用多层
transformer
编码器,每个编码器由多头自注意力机制和前馈网络组成,每个编码器的输出作为下一个编码器的输入,最终输出的矩阵维度为
[B,L,H]
,其中
B
代表批次导入模型的句子数量,
L
代表输入句子的最大长度,
H
代表编码器的维度;最大池化层
Max
‑
pooling
对
Bert
预训练层的输出结果进行采样,保留最显著的语义特征,减少参数量,防止模型过拟合,将每个句子的特征矩阵从二维转化为一维,具体维度可表示为
[B,L]
;句向量输出层
Sentence representation
将最大池化层输出向量转化成指定维度的向量,作为最终的句向量,最终输出的矩阵维度为
[B,E]
,其中
E
代表句向量的维度
。4.
根据权利要求1所述的基于文本标签预测的聊天话题...
【专利技术属性】
技术研发人员:陈诚,黄志炜,赵建强,陈思萌,彭闯,张辉极,
申请(专利权)人:厦门市美亚柏科信息股份有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。