基于语音交互的上下文获取方法及设备技术

技术编号:19748272 阅读:23 留言:0更新日期:2018-12-12 05:15
本发明专利技术实施例提供一种基于语音交互的上下文获取方法及设备,该方法包括:在获取到本次对话后,提取本次对话的第一声纹特征;若在声纹数据库中确定存在与第一声纹特征匹配的第二声纹特征,则从声纹数据库中获取第二声纹特征对应的第一用户标识;若确定语音数据库中存储有第一用户标识对应的已存对话,则根据本次对话与已存对话确定语音交互的上下文,并将本次对话存储至语音数据库中。本实施例可以提高获取语音交互的上下文的准确率。

【技术实现步骤摘要】
基于语音交互的上下文获取方法及设备
本专利技术实施例涉及语音交互
,尤其涉及一种基于语音交互的上下文获取方法及设备。
技术介绍
随着人工智能技术的发展,智能语音交互产品的研发和使用备受关注。其中,智能语音交互是基于语音输入的一种交互模式,用户可以通过语音来输入自己的请求,该产品可以根据请求的意图,响应相应的内容。现有技术中,在智能服务机器人的应用场景中,例如:迎宾机器人,警务机器人等,往往存在多个人同时与智能服务机器人交互的场景。在多人与机器人对话时,如果不能识别对话内容的来源,则无法准确的获取对话上下文,从而无法向用户提供准确的服务,造成糟糕的对话体验。目前,在假设同一用户的对话内容中不会有不同主题的内容,且两个用户的对话内容的主题是没有交叠的前提下,通过自然语言理解来根据对话含义来进行身份识别,以获取同一用户的对话上下文。然而,在实际应用时基于自然语言理解的假设并不总是成立的,导致获取语音对话上下文的错误率较高。
技术实现思路
本专利技术实施例提供一种基于语音交互的上下文获取方法及设备,以克服获取语音对话上下文的错误率较高的问题。第一方面,本专利技术实施例提供一种基于语音交互的上下文获取方法,包括:在获取到本次对话后,提取所述本次对话的第一声纹特征;若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。在一种可能的设计中,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征,所述方法还包括:根据所述第一声纹特征,生成所述用户的第二用户标识;将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。在一种可能的设计中,所述根据所述本次对话与所述已存对话确定语音交互的上下文,包括:根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。在一种可能的设计中,若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,所述方法还包括:在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。在一种可能的设计中,所述方法还包括:将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。在一种可能的设计中,所述提取所述本次对话的第一声纹特征,包括:将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。在一种可能的设计中,所述将所述本次对话输入至预设的声纹特征模型中之前,所述方法还包括:获取语音训练样本,所述语音训练样本包括语音段和标签;根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。在一种可能的设计中,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。第二方面,本专利技术实施例提供一种基于语音交互的上下文获取设备,包括:提取模块,用于在获取到本次对话后,提取所述本次对话的第一声纹特征;匹配模块,用于若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;获取模块,用于若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。在一种可能的设计中,所述匹配模块还用于,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征根据所述第一声纹特征,生成所述用户的第二用户标识;将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。在一种可能的设计中,所述获取模块具体用于:根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。在一种可能的设计中,所述获取模块还具体用于:若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。在一种可能的设计中,所述匹配模块还用于:将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。在一种可能的设计中,所述提取模块具体用于:将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。在一种可能的设计中,还包括:建模模块;所述建模模块用于获取语音训练样本,所述语音训练样本包括语音段和标签;根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。在一种可能的设计中,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。第三方面,本专利技术实施例提供一种基于语音交互的上下文获取设备,包括:至少一个处理器和存储器;所述存储器存储计算机执行指令;所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面或第一方面各种可能的设计所述的基于语音交互的上下文获取方法。第四方面,本专利技术实施例提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面或第一方面各种可能的设计所述的基于语音交互的上下文获取方法。本实施例提供的基于语音交互的上下文获取方法,通过在获取到本次对话后,提取本次对话的第一声纹特征;若在声纹数据库中确定存在与第一声纹特征匹配的第二声纹特征,则从声纹数据库中获取第二声纹特征对应的第一用户标识;通过声纹识别实现了准确的对用户进行身份识别,若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中,通过用户标识能够获取与本次对话属于同一用户的已存对话,根据同一用户的对话来获取语音交互的上下文,避免了将不同用户的对话作为上下文,提高了获取上下文的准确率。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。图1为本专利技术实施例提供的基于语音交互的上下文获取方法的系统架构图;图2为本专利技术实施例提供的基本文档来自技高网...

【技术保护点】
1.一种基于语音交互的上下文获取方法,其特征在于,包括:在获取到本次对话后,提取所述本次对话的第一声纹特征;若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。

【技术特征摘要】
1.一种基于语音交互的上下文获取方法,其特征在于,包括:在获取到本次对话后,提取所述本次对话的第一声纹特征;若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。2.根据权利要求1所述的方法,其特征在于,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征,所述方法还包括:根据所述第一声纹特征,生成所述用户的第二用户标识;将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。3.根据权利要求1所述的方法,其特征在于,所述根据所述本次对话与所述已存对话确定语音交互的上下文,包括:根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。4.根据权利要求3所述的方法,其特征在于,若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,所述方法还包括:在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。5.根据权利要求1所述的方法,其特征在于,所述方法还包括:将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。6.根据权利要求1至5任一项所述的方法,其特征在于,所述提取所述本次对话的第一声纹特征,包括:将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。7.根据权利要求6所述的方法,其特征在于,所述将所述本次对话输入至预设的声纹特征模型中之前,所述方法还包括:获取语音训练样本,所述语音训练样本包括语音段和标签;根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。8.根据权利要求7所述的方法,其特征在于,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。9.一种基于语音交互的上下文获取设备,其特征在于,包括:提取模块,用于在获取到本次对话后,提取所述本次对话的第一声纹特征;匹配模块,用于若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹...

【专利技术属性】
技术研发人员:梁阳刘昆乔爽爽林湘粤韩超朱名发郭江亮李旭刘俊李硕尹世明
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1