基于AI语音的智能交互处理方法、系统及存储介质技术方案

技术编号:21839269 阅读:33 留言:0更新日期:2019-08-10 20:38
本发明专利技术公开了基于AI语音的智能交互处理方法、系统及存储介质,所述方法:预先在智能电视上连接设置具有远场语音模块声纹识别的智能摄像头,用于通过智能摄像头的远场语音模块与智能电视进行交互;智能摄像头实时拍摄并获取用户的语音图像信息,并利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;智能电视根据分析处理的结果,对用户的行为习惯进行预判并进行相应的交互响应。本发明专利技术提供了一种方便智能识别和交互推荐的基于AI语音的智能交互处理方法、系统,使智能电视增加了更好的智能交互功能,方便用户使用。

Intelligent Interactive Processing Method, System and Storage Medium Based on AI Speech

【技术实现步骤摘要】
基于AI语音的智能交互处理方法、系统及存储介质
本专利技术涉及智能家居
,具体涉及一种基于AI语音的智能交互处理方法、系统及存储介质。
技术介绍
随着科学技术的进步,智能化的消费电子也逐渐普及,AI语音的技术之一声纹识别是一种当前较为前沿的技术,能够识别出说话人的声音属性(性别、年龄,能够区分不同的说话人的声音归属(通过声纹能够区分出那一句话是哪一个用户说的))。当前的声纹识别应用还停留在初级阶段,基本上还处于能够识别出一些基础的声纹属性(如:男、女、老、幼、声纹归属(是谁的声纹)),缺乏基于声纹识别技术的AI家居场景应用级开发。现有技术的智能电视也不具有更好的智能交互功能,有时不方便用户使用因此,现有技术还有待于改进和发展。
技术实现思路
鉴于上述现有技术的不足之处,本专利技术的目的在于提供一种基于AI语音的智能交互处理方法、系统及存储介质,提供了一种方便智能识别和交互推荐的基于AI语音的智能交互处理方法、系统,使智能电视增加了更好的智能交互功能,方便用户使用。为了达到上述目的,本专利技术采取了以下技术方案:一种基于AI语音的智能交互处理方法,其中,包括如下步骤:A、预先在智能电视上连接设置具有远场语音模块声纹识别的智能摄像头,用于通过智能摄像头的远场语音模块与智能电视进行交互;B、智能摄像头实时拍摄并获取用户的语音图像信息,并利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;C、智能电视根据分析处理的结果,对用户的行为习惯进行预判并进行相应的交互响应。所述的基于AI语音的智能交互处理方法,其中,所述步骤A还包括:A1、预先构建与用户行为数据对应的AI家庭智能交互场景数据库。所述的基于AI语音的智能交互处理方法,其中,所述步骤B包括:智能电视开机时智能摄像头处于工作状态;智能摄像头实时拍摄并获取用户的语音图像信息,侦听用户的说话语音,并将用户说话语音记录进行AI家庭智能交互处理;AI家庭智能交互处理利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;根据用户的行为习惯进行预判,并根据用户的互动行为不断的学习纠正。所述的基于AI语音的智能交互处理方法,其中,所述步骤B中的利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理的步骤包括:进行语音指令的语义识别和场景构建类;进行当前用户的声纹属性分析、声纹情绪特征分析、人脸识别分析、用户家庭场景分析、用户的情绪分析、场景历史记录分析;智能创建用户系统大数据,通过构建AI家庭智能交互场景对用户的语音指令进行分析处理。所述的基于AI语音的智能交互处理方法,其中,所述进行语音指令的语义识别和场景构建类的步骤包括:进行语音指令分解的语义识别:分析用户的说话是属于指令类还是场景构建类;所述进行当前用户的声纹属性分析的步骤包括:进行当前用户的声纹属性识别:哪些声纹用户同时出现过;所述声纹情绪特征分析包括:声纹出现的场景是什么样,每个人的声纹场景是什么,综合场景是什么;所述人脸识别分析包括:谁跟谁在同一时间出现过,表情是什么,时间是什么;所述用户家庭场景分析通过智能摄像头取景按照预定模板分析;所述用户的情绪分析通过声纹、声纹情绪特征、人脸表情和场景进行分析;所述场景历史记录分析包括:哪些声纹场景组合发生过什么处理事件,什么时候发生的,发生之后用户进行过什么交互,用于通过历史数据分析,预判用户的下一步行为,进行一些预处理的输出。所述的基于AI语音的智能交互处理方法,其中,所述步骤C包括:智能电视根据分析处理的结果创建一个用户的属性记录,并将用户的ID、声纹属性、人脸属性作为用户的辨识值,通过上述三个任何一个属性定位到用户;当检测到一个陌生的声纹或者人脸时,默认创建用户的属性记录,并通过后续的互动智能增加声纹对应用户的声纹属性;而如果用户首先记录的是声纹属性增加的用户ID,过后续的互动智能增加用户的人脸属性;创建成功用户之后,自动创建基于用户ID的大数据数据表,数据表记录用户的各种行为记录、互动记录、交互记录;根据用户的行为习惯进行预判,并根据用户的互动行为不断的学习纠正;对用户的语音图像信息进行AI家庭智能交互分解后,得出用户的预执行操作,或者推荐用户最好的互动场景并进行相应的提示。一种基于AI语音的智能交互处理系统,其中,包括:处理器、存储器和通信总线;所述存储器上存储有可被所述处理器执行的基于AI语音的智能交互处理程序;所述通信总线实现处理器和存储器之间的连接通信;所述处理器执行所述基于AI语音的智能交互处理程序时实现如下步骤:A、预先在智能电视上连接设置具有远场语音模块声纹识别的智能摄像头,用于通过智能摄像头的远场语音模块与智能电视进行交互;B、智能摄像头实时拍摄并获取用户的语音图像信息,并利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;C、智能电视根据分析处理的结果,对用户的行为习惯进行预判并进行相应的交互响应。所述的基于AI语音的智能交互处理系统,其中,所述处理器执行所述基于AI语音的智能交互处理程序时还实现如下步骤:A1、预先构建与用户行为数据对应的AI家庭智能交互场景数据库;智能电视开机时智能摄像头处于工作状态;智能摄像头实时拍摄并获取用户的语音图像信息,侦听用户的说话语音,并将用户说话语音记录进行AI家庭智能交互处理;AI家庭智能交互处理利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;根据用户的行为习惯进行预判,并根据用户的互动行为不断的学习纠正。所述的基于AI语音的智能交互处理系统,其中,所述处理器执行所述基于AI语音的智能交互处理程序时还实现如下步骤:进行语音指令的语义识别和场景构建类;进行当前用户的声纹属性分析、声纹情绪特征分析、人脸识别分析、用户家庭场景分析、用户的情绪分析、场景历史记录分析;智能创建用户系统大数据,通过构建AI家庭智能交互场景对用户的语音指令进行分析处理;进行语音指令分解的语义识别:分析用户的说话是属于指令类还是场景构建类;所述进行当前用户的声纹属性分析的步骤包括:进行当前用户的声纹属性识别:哪些声纹用户同时出现过;所述声纹情绪特征分析包括:声纹出现的场景是什么样,每个人的声纹场景是什么,综合场景是什么;所述人脸识别分析包括:谁跟谁在同一时间出现过,表情是什么,时间是什么;所述用户家庭场景分析通过智能摄像头取景按照预定模板分析;所述用户的情绪分析通过声纹、声纹情绪特征、人脸表情和场景进行分析;所述场景历史记录分析包括:哪些声纹场景组合发生过什么处理事件,什么时候发生的,发生之后用户进行过什么交互,用于通过历史数据分析,预判用户的下一步行为,进行一些预处理的输出;智能电视根据分析处理的结果创建一个用户的属性记录,并将用户的ID、声纹属性、人脸属性作为用户的辨识值,通过上述三个任何一个属性定位到用户;当检测到一个陌生的声纹或者人脸时,默认创建用户的属性记录,并通过后续的互动智能增加声纹对应用户的声纹属性;而如果用户首先记录的是声纹属性增加的用户ID,过后续的互动智能增加用户的人脸属性;创建成功用户之后,自动创建基于用本文档来自技高网...

【技术保护点】
1.一种基于AI语音的智能交互处理方法,其特征在于,包括如下步骤:A、预先在智能电视上连接设置具有远场语音模块声纹识别的智能摄像头,用于通过智能摄像头的远场语音模块与智能电视进行交互;B、智能摄像头实时拍摄并获取用户的语音图像信息,并利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;C、智能电视根据分析处理的结果,对用户的行为习惯进行预判并进行相应的交互响应。

【技术特征摘要】
1.一种基于AI语音的智能交互处理方法,其特征在于,包括如下步骤:A、预先在智能电视上连接设置具有远场语音模块声纹识别的智能摄像头,用于通过智能摄像头的远场语音模块与智能电视进行交互;B、智能摄像头实时拍摄并获取用户的语音图像信息,并利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;C、智能电视根据分析处理的结果,对用户的行为习惯进行预判并进行相应的交互响应。2.根据权利要求1所述的基于AI语音的智能交互处理方法,其特征在于,所述步骤A还包括:A1、预先构建与用户行为数据对应的AI家庭智能交互场景数据库。3.根据权利要求1所述的基于AI语音的智能交互处理方法,其特征在于,所述步骤B包括:智能电视开机时智能摄像头处于工作状态;智能摄像头实时拍摄并获取用户的语音图像信息,侦听用户的说话语音,并将用户说话语音记录进行AI家庭智能交互处理;AI家庭智能交互处理利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理;根据用户的行为习惯进行预判,并根据用户的互动行为不断的学习纠正。4.根据权利要求1所述的基于AI语音的智能交互处理方法,其特征在于,所述步骤B中的利用预先构建与用户行为数据对应的AI家庭智能交互场景数据库,对用户的语音图像信息进行分析处理的步骤包括:进行语音指令的语义识别和场景构建类;进行当前用户的声纹属性分析、声纹情绪特征分析、人脸识别分析、用户家庭场景分析、用户的情绪分析、场景历史记录分析;智能创建用户系统大数据,通过构建AI家庭智能交互场景对用户的语音指令进行分析处理。5.根据权利要求4所述的基于AI语音的智能交互处理方法,其特征在于,所述进行语音指令的语义识别和场景构建类的步骤包括:进行语音指令分解的语义识别:分析用户的说话是属于指令类还是场景构建类;所述进行当前用户的声纹属性分析的步骤包括:进行当前用户的声纹属性识别:哪些声纹用户同时出现过;所述声纹情绪特征分析包括:声纹出现的场景是什么样,每个人的声纹场景是什么,综合场景是什么;所述人脸识别分析包括:谁跟谁在同一时间出现过,表情是什么,时间是什么;所述用户家庭场景分析通过智能摄像头取景按照预定模板分析;所述用户的情绪分析通过声纹、声纹情绪特征、人脸表情和场景进行分析;所述场景历史记录分析包括:哪些声纹场景组合发生过什么处理事件,什么时候发生的,发生之后用户进行过什么交互,用于通过历史数据分析,预判用户的下一步行为,进行一些预处理的输出。6.根据权利要求1所述的基于AI语音的智能交互处理方法,其特征在于,所述步骤C包括:智能电视根据分析处理的结果创建一个用户的属性记录,并将用户的ID、声纹属性、人脸属性作为用户的辨识值,通过上述三个任何一个属性定位到用户;当检测到一个陌生的声纹或者人脸时,默认创建用户的属性记录,并通过后续的互动智能增加声纹对应用户的声纹属性;而如果用户首先记录的是声纹属性增加的用户ID,过后续的互动智能增加用户的人脸属性;创建成功用户之后,自动创建基于用户ID的大数据数据表,数据表记录用户的各种行为记录、互动记录、交互记录;根据用户的行为习惯进行预判,并根据用户的互动行为不断的学习纠正;对用户的语音图像信息进行AI家庭智能交互分解后,得出用户的预执行操作,或者推荐用户最好的互动场景并进行相应的提示。7.一种基于AI语音的智能交互处理系统,其特征在于,包...

【专利技术属性】
技术研发人员:周胜杰
申请(专利权)人:深圳康佳电子科技有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1