System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于人工智能的交互系统及装置制造方法及图纸_技高网

一种基于人工智能的交互系统及装置制造方法及图纸

技术编号:41227732 阅读:3 留言:0更新日期:2024-05-09 23:45
本发明专利技术涉及人机交互领域,具体为一种基于人工智能的交互系统及装置,其包括唤醒模块、输入接收模块和输入分析模块;其特征在于,还包括用户心情识别模块和输出模块;用户心情识别模块包括微表情识别单元和语调识别单元,微表情识别单元用来识别用户面部表情并进行分析得出用户当前心情状态,语调识别单元用来分析用户语音输入中的语调,根据语调的分析结果得出用户当前心情状态;输出模块根据输入分析模块的分析结果输出设定的内容,并结合心情识别结果选择采用不同的风格进行输出。本发明专利技术能根据用户不同的情绪选择不同风格的输出,给用户更好的体验,交互设计更加人性化。

【技术实现步骤摘要】

本专利技术涉及人机交互,尤其涉及一种基于人工智能的交互系统及装置


技术介绍

1、基人工智能的交互系统是一种能够与用户进行自然语言对话并根据用户需求提供相应服务或解决问题的系统。这种系统利用深度学习、自然语言处理等人工智能技术来理解和生成用户语言,并通过大量数据的学习和分析不断提升自身的智能水平。

2、公告号为cn109346069a的中国专利公开了一种基于人工智能的交互系统,涉及人工智能领域,包括:唤醒单元、语音单元、语义单元、语音合成单元、中央控制单元、数据采集单元、终端控制单元。其特征在于,所述唤醒单元,用于唤醒所述系统和响应服务;所述语音单元,用于获取用户语音信息,并对语音信息进行识别;所述语义单元,用于对所述语音信息进行语义识别,并生成相应的指令信息;所述语音合成单元,用于将所述指令信息转化为用户可识别的信息,并呈现出来;所述中央控制单元,用于获取所述指令信息,运行系统程序,以执行所述指令;所述数据采集单元,用于采集完成所述指令需要的数据,并将数据传送给所述中央控制单元;所述终端控制单元,用于控制终端应用操作及显示。

3、但是上述已公开方案存在如下不足之处:根据用户的语音机械式地提供输出,不能根据用户心情来选择不同风格的输出,人性化较差,用户的体验感有待提高。


技术实现思路

1、本专利技术目的是针对
技术介绍
中存在的现有的交互系统不能根据用户心情选择不同输出风格的问题,提出一种基于人工智能的交互系统及装置。

2、一方面,本专利技术提出一种基于人工智能的交互系统,包括唤醒模块、输入接收模块和输入分析模块;其特征在于,还包括用户心情识别模块和输出模块;

3、唤醒模块用来唤醒交互设备进行工作状态;输入接收模块用来接收用户的输入内容;输入分析模块用来分析用户的输入指令;

4、用户心情识别模块包括微表情识别单元和语调识别单元,微表情识别单元用来识别用户面部表情并进行分析得出用户当前心情状态,语调识别单元用来分析用户语音输入中的语调,根据语调的分析结果得出用户当前心情状态;输出模块根据输入分析模块的分析结果输出设定的内容,并结合心情识别结果选择采用不同的风格进行输出。

5、优选的,唤醒模块提供语音唤醒、人体感应唤醒和按钮唤醒功能,语音唤醒通过设定的语音输入进行唤醒,人体感应唤醒通过范围内出现人体进行唤醒,按钮唤醒通过按压按钮进行唤醒。

6、优选的,输入接收模块包括语音接收单元、文本接收单元和图片接收单元;语音接收单元用来接收用户发出的语音指令,文本接收单元用来接收用户输入的文本信息,图片接收单元用来接收用户输入的图片信息。

7、优选的,图片接收单元接收图片包括两种方式,一是用户直接上传的图片,另一种是通过摄像拍摄用户手持的图片。

8、优选的,用户心情识别模块中,微表情识别单元工作优先级高于语调识别单元工作优先级,且微表情识别单元和语调识别单元不同时开启。

9、优选的,通过微表情识别判断用户心情后选择不同的输出风格的整个过程包括以下步骤:s11、收集包含多种表情的人脸图像或视频数据集,这些数据应该包含不同的微表情和对应的情绪;s12、对收集到的用户的面部数据进行预处理,包括人脸检测和关键点定位,这一步骤使用人脸检测器和关键点检测器来完成,目的是确保只有面部区域才被识别并分析微表情;s13、使用计算机视觉算法来提取面部特征;s14、使用机器学习算法或深度学习模型来对提取的特征进行训练和分类,识别出用户的情绪;s15、根据用户的微表情情绪分类结果,选择相应的输出风格,具体通过建立映射函数或者利用预训练的情感模型来实现,根据选择的输出风格,生成相应的输出,输出包括对话回应、音频反馈、图像或视频。

10、优选的,通过语调识别判断用户心情后选择不同的输出风格的整个过程包括以下步骤:s21、收集包含多种情绪的语音数据集,这些数据包含不同情绪下的语调表达;s22、对收集到的语音数据进行预处理,去除噪音、音频增强和语音分段,确保语音数据的质量和准确性;s23、使用语音处理算法提取收集到的用户语音中的语调特征;s24、使用机器学习算法或深度学习模型对提取到的语调特征进行训练和分类,识别用户的情绪;s25、根据用户的情绪分类结果,选择相应的输出风格,通过预定义的情绪与风格之间的映射关系来进行选择,根据选择的输出风格,生成相应的对话回应、音频反馈、图像或视频。

11、另一方面,本专利技术提出一种基于人工智能的交互装置,包括壳体,设置在壳体正面的图片识别摄像头和多个面部识别摄像头,设置在壳体正面且位于图片识别摄像头下方的触控屏,设置在壳体正面且位于触控屏两侧的语音输出喇叭和拾音装置;壳体顶部设置唤醒按钮,壳体侧面设置文件传输接头,壳体正面设置人体感应传感器,壳体内设置控制系统,控制系统与触控屏、图片识别摄像头、面部识别摄像头、人体感应传感器以及拾音装置均数据传输连接,控制系统与唤醒按钮、文件传输接头以及语音输出喇叭均电性连接。

12、与现有技术相比,本专利技术具有如下有益的技术效果:用户通过语音输入时,采集用户面部表情和语调特征,分析用户的当前情绪,根据用户不同的情绪选择不同风格的输出,例如用户的情绪分析结果是快乐,系统可以选择一种欢快或活泼的输出风格,如果用户的情绪分析结果是愤怒,系统可以选择一种强烈或激进的输出风格,根据映射关系实时调整输出风格,给用户更好的体验,交互设计更加人性化。

本文档来自技高网...

【技术保护点】

1.一种基于人工智能的交互系统,包括唤醒模块、输入接收模块和输入分析模块;其特征在于,还包括用户心情识别模块和输出模块;

2.根据权利要求1所述的基于人工智能的交互系统,其特征在于,唤醒模块提供语音唤醒、人体感应唤醒和按钮唤醒功能,语音唤醒通过设定的语音输入进行唤醒,人体感应唤醒通过范围内出现人体进行唤醒,按钮唤醒通过按压按钮进行唤醒。

3.根据权利要求1所述的基于人工智能的交互系统,其特征在于,输入接收模块包括语音接收单元、文本接收单元和图片接收单元;语音接收单元用来接收用户发出的语音指令,文本接收单元用来接收用户输入的文本信息,图片接收单元用来接收用户输入的图片信息。

4.根据权利要求3所述的基于人工智能的交互系统,其特征在于,图片接收单元接收图片包括两种方式,一是用户直接上传的图片,另一种是通过摄像拍摄用户手持的图片。

5.根据权利要求1所述的基于人工智能的交互系统,其特征在于,用户心情识别模块中,微表情识别单元工作优先级高于语调识别单元工作优先级,且微表情识别单元和语调识别单元不同时开启。

6.根据权利要求1所述的基于人工智能的交互系统,其特征在于,通过微表情识别判断用户心情后选择不同的输出风格的整个过程包括以下步骤:S11、收集包含多种表情的人脸图像或视频数据集,这些数据应该包含不同的微表情和对应的情绪;S12、对收集到的用户的面部数据进行预处理,包括人脸检测和关键点定位,这一步骤使用人脸检测器和关键点检测器来完成,目的是确保只有面部区域才被识别并分析微表情;S13、使用计算机视觉算法来提取面部特征;S14、使用机器学习算法或深度学习模型来对提取的特征进行训练和分类,识别出用户的情绪;S15、根据用户的微表情情绪分类结果,选择相应的输出风格,具体通过建立映射函数或者利用预训练的情感模型来实现,根据选择的输出风格,生成相应的输出,输出包括对话回应、音频反馈、图像或视频。

7.根据权利要求1所述的基于人工智能的交互系统,其特征在于,通过语调识别判断用户心情后选择不同的输出风格的整个过程包括以下步骤:S21、收集包含多种情绪的语音数据集,这些数据包含不同情绪下的语调表达;S22、对收集到的语音数据进行预处理,去除噪音、音频增强和语音分段,确保语音数据的质量和准确性;S23、使用语音处理算法提取收集到的用户语音中的语调特征;S24、使用机器学习算法或深度学习模型对提取到的语调特征进行训练和分类,识别用户的情绪;S25、根据用户的情绪分类结果,选择相应的输出风格,通过预定义的情绪与风格之间的映射关系来进行选择,根据选择的输出风格,生成相应的对话回应、音频反馈、图像或视频。

8.一种基于人工智能的交互装置,其特征在于,包括壳体(1),设置在壳体(1)正面的图片识别摄像头(3)和多个面部识别摄像头(2),设置在壳体(1)正面且位于图片识别摄像头(3)下方的触控屏(4),设置在壳体(1)正面且位于触控屏(4)两侧的语音输出喇叭(5)和拾音装置(9);壳体(1)顶部设置唤醒按钮(7),壳体(1)侧面设置文件传输接头(6),壳体(1)正面设置人体感应传感器(8),壳体(1)内设置控制系统,控制系统与触控屏(4)、图片识别摄像头(3)、面部识别摄像头(2)、人体感应传感器(8)以及拾音装置(9)均数据传输连接,控制系统与唤醒按钮(7)、文件传输接头(6)以及语音输出喇叭(5)均电性连接。

...

【技术特征摘要】

1.一种基于人工智能的交互系统,包括唤醒模块、输入接收模块和输入分析模块;其特征在于,还包括用户心情识别模块和输出模块;

2.根据权利要求1所述的基于人工智能的交互系统,其特征在于,唤醒模块提供语音唤醒、人体感应唤醒和按钮唤醒功能,语音唤醒通过设定的语音输入进行唤醒,人体感应唤醒通过范围内出现人体进行唤醒,按钮唤醒通过按压按钮进行唤醒。

3.根据权利要求1所述的基于人工智能的交互系统,其特征在于,输入接收模块包括语音接收单元、文本接收单元和图片接收单元;语音接收单元用来接收用户发出的语音指令,文本接收单元用来接收用户输入的文本信息,图片接收单元用来接收用户输入的图片信息。

4.根据权利要求3所述的基于人工智能的交互系统,其特征在于,图片接收单元接收图片包括两种方式,一是用户直接上传的图片,另一种是通过摄像拍摄用户手持的图片。

5.根据权利要求1所述的基于人工智能的交互系统,其特征在于,用户心情识别模块中,微表情识别单元工作优先级高于语调识别单元工作优先级,且微表情识别单元和语调识别单元不同时开启。

6.根据权利要求1所述的基于人工智能的交互系统,其特征在于,通过微表情识别判断用户心情后选择不同的输出风格的整个过程包括以下步骤:s11、收集包含多种表情的人脸图像或视频数据集,这些数据应该包含不同的微表情和对应的情绪;s12、对收集到的用户的面部数据进行预处理,包括人脸检测和关键点定位,这一步骤使用人脸检测器和关键点检测器来完成,目的是确保只有面部区域才被识别并分析微表情;s13、使用计算机视觉算法来提取面部特征;s14、使用机器学习算法或深度学习模型来对提取的特征进行训练和分...

【专利技术属性】
技术研发人员:刁海晶
申请(专利权)人:合肥霖朴信息科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1