基于感知分析的智能终端服务调整处理方法、装置制造方法及图纸

技术编号:39185842 阅读:7 留言:0更新日期:2023-10-27 08:33
本发明专利技术公开了基于感知分析的智能终端服务调整处理方法、装置,方法包括:获取智能终端前用户的表情特征、语音语调特征、体态特征;基于获取的表情特征、语音语调特征、体态特征,通过训练好的神经网络模型进行情感分析和感知,与情感状态进行关联,识别用户的情感状态;根据识别出的情感状态,匹配出与当前情感状态适配的播放内容及播放状态,并控制智能终端调整为对应的播放内容及播放状态。本发明专利技术的智能电视可以主动感知和理解用户的情感状态,能根据用户的需求进行个性化的内容和体验调整,为用户的使用提供了方便。户的使用提供了方便。户的使用提供了方便。

【技术实现步骤摘要】
基于感知分析的智能终端服务调整处理方法、装置


[0001]本专利技术涉及智能终端
,尤其涉及的是一种基于感知分析的智能终端服务调整处理方法、装置、智能终端及存储介质。

技术介绍

[0002]随着科技的发展和人们生活水平的不断提高,各种智能设备如智能电视的使用越来越普及,智能电视已经成为人们生活中不可缺少的休闲娱乐工具。
[0003]现有技术中智能电视,不具有根据用户的需求进行个性化的内容和体验调整功能,即无法主动感知和理解用户的情感状态,导致无法根据用户的需求进行个性化的内容和体验调整,有时不方便用户使用。
[0004]因此,现有技术还有待改进和发展。

技术实现思路

[0005]本专利技术要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于感知分析的智能终端服务调整处理方法、装置、智能终端及存储介质,本专利技术的智能电视可以主动感知和理解用户的情感状态,能根据用户的需求进行个性化的内容和体验调整,为用户的使用提供了方便。
[0006]本专利技术解决问题所采用的技术方案如下:
[0007]一种基于感知分析的智能终端服务调整处理方法,其中,包括:
[0008]获取智能终端前用户的表情特征、语音语调特征、体态特征;
[0009]基于获取的表情特征、语音语调特征、体态特征,通过训练好的神经网络模型进行情感分析和感知,与情感状态进行关联,识别用户的情感状态;
[0010]根据识别出的情感状态,匹配出与当前情感状态适配的播放内容及播放状态,并控制智能终端调整为对应的播放内容及播放状态。
[0011]所述的基于感知分析的智能终端服务调整处理方法,其中,所述获取智能终端前用户的表情特征、语音语调特征、体态特征的步骤之前包括:
[0012]预先设置与用户情感状态对应适配的播放内容及播放状态,生成情感状态适配摄像头、麦克风。
[0013]所述的基于感知分析的智能终端服务调整处理方法,其中,所述训练好的神经网络模型的训练步骤包括:
[0014]收集具有标记的情感数据集,所述情感数据集包含表情特征图像、语音语调特征、体态特征的非语言行为数据,以及与之相关的情感标签;
[0015]对收集到的情感数据集中的数据进行预处理,对表情特征图像进行裁剪和缩放,对语音语调特征数据进行声音特征提取,对体态特征数据进行姿态估计,确保数据的格式和结构与所选模型相匹配;
[0016]对预处理后的数据提取有意义的特征:对表情特征图像,使用计算机视觉技术提
取关键点或使用卷积神经网络从图像中学习特征;对于语音语调特征,提取声谱图、基音周期、语音特征;对体态特征数据,提取姿态特征、运动特征,生成标记好的情感数据集;确保所选的特征能够充分表达非语言行为和情感状态之间的关系;
[0017]选择决策树和深度神经网络模型,并使用记好的情感数据集进行训练,生成训练好的神经网络模型。
[0018]所述的基于感知分析的智能终端服务调整处理方法,其中,所述获取智能终端前用户的表情特征、语音语调特征、体态特征的步骤包括:
[0019]通过设置在智能终端上的摄像头采集用户的面部表情特征、体态特征、通过设置在智能终端上的麦克风采集用户的语音语调特征;采集方式以视频、音频和\或图像的形式进行采集。
[0020]所述的基于感知分析的智能终端服务调整处理方法,其中,所述基于获取的表情特征、语音语调特征、体态特征,通过训练好的神经网络模型进行情感分析和感知,与情感状态进行关联,识别用户的情感状态的步骤包括:
[0021]基于训练好的神经网络模型对采集到的面部图像进行处理和分析,使用人脸检测算法检测出人脸区域,并提取面部特征点;利用表情识别算法分析提取面部特征点的变化,判断用户的面部表情;
[0022]基于训练好的神经网络模型对采集到的语音语调特征数据进行语音信号处理和分析,对特征进行训练和分类,识别用户的语音语调和情感状态;
[0023]基于训练好的神经网络模型对采集到的体态特征数据进行姿态估计、动作识别,并提取关键的姿态特征,对提取的特征进行训练和分类,识别用户的体态和情感状态;
[0024]基于训练好的神经网络模型对得到的用户的面部表情、用户的语音语调和情感状态,以及用户的体态和情感状态进行特征融合,并与已知的情感模式进行比较,识别和分析用户的情感状态;
[0025]输出用户的情感状态识别结果。
[0026]所述的基于感知分析的智能终端服务调整处理方法,其中,所述根据识别出的情感状态,匹配出与当前情感状态适配的播放内容及播放状态,并控制智能终端调整为对应的播放内容及播放状态的步骤包括:
[0027]获取识别出的情感状态;
[0028]根据识别出的情感状态,查找预先设置的与用户情感状态对应适配的播放内容及播放状态的情感状态适配摄像头、麦克风进行对比判断;匹配出与当前情感状态适配的播放内容及播放状态;
[0029]控制智能终端的播放内容调整为匹配出的与当前情感状态适配的播放内容及播放状态。
[0030]所述的基于感知分析的智能终端服务调整处理方法,其中,所述根据识别出的情感状态,匹配出与当前情感状态适配的播放内容及播放状态,并控制智能终端调整为对应的播放内容及播放状态的步骤包括:
[0031]当检测识别的结果为用户情绪低落,控制搜索欢快的音乐或喜剧节目,并自动播放欢快的音乐或切换到喜剧节目;
[0032]当检测识别的结果为用户专注度降低,控制自动调整音量和亮度到预设值。
[0033]一种基于感知分析的智能终端服务调整处理装置,其中,所述装置包括:
[0034]获取模块,用于获取智能终端前用户的表情特征、语音语调特征、体态特征;
[0035]情感分析和感知模块,用于基于获取的表情特征、语音语调特征、体态特征,通过训练好的神经网络模型进行情感分析和感知,与情感状态进行关联,识别用户的情感状态;
[0036]播放调整模块,用于根据识别出的情感状态,匹配出与当前情感状态适配的播放内容及播放状态,并控制智能终端调整为对应的播放内容及播放状态。
[0037]一种智能终端,其中,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于执行任意一项所述的方法。
[0038]一种非临时性计算机可读存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行任意一项所述的方法。
[0039]本专利技术的有益效果:本专利技术提供了一种基于感知分析的智能终端服务调整处理方法、装置。本申请通过摄像头捕捉电视机前用户的面部表情、语音语调、体态等非语言行为,并进行情感分析和感知。根据分析结果,可以主动调整电视内容、音量、亮度等,以提供更好的用户体验。本专利技术使智能电视增加了新功能:具有主动感知和理解用户的情感状态,并根据用户的需求进行个性化内本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于感知分析的智能终端服务调整处理方法,其特征在于,包括:获取智能终端前用户的表情特征、语音语调特征、体态特征;基于获取的表情特征、语音语调特征、体态特征,通过训练好的神经网络模型进行情感分析和感知,与情感状态进行关联,识别用户的情感状态;根据识别出的情感状态,匹配出与当前情感状态适配的播放内容及播放状态,并控制智能终端调整为对应的播放内容及播放状态。2.根据权利要求1所述的基于感知分析的智能终端服务调整处理方法,其特征在于,所述获取智能终端前用户的表情特征、语音语调特征、体态特征的步骤之前包括:预先设置与用户情感状态对应适配的播放内容及播放状态,生成情感状态适配摄像头、麦克风。3.根据权利要求1所述的基于感知分析的智能终端服务调整处理方法,其特征在于,所述训练好的神经网络模型的训练步骤包括:收集具有标记的情感数据集,所述情感数据集包含表情特征图像、语音语调特征、体态特征的非语言行为数据,以及与之相关的情感标签;对收集到的情感数据集中的数据进行预处理,对表情特征图像进行裁剪和缩放,对语音语调特征数据进行声音特征提取,对体态特征数据进行姿态估计,确保数据的格式和结构与所选模型相匹配;对预处理后的数据提取有意义的特征:对表情特征图像,使用计算机视觉技术提取关键点或使用卷积神经网络从图像中学习特征;对于语音语调特征,提取声谱图、基音周期、语音特征;对体态特征数据,提取姿态特征、运动特征,生成标记好的情感数据集;确保所选的特征能够充分表达非语言行为和情感状态之间的关系;选择决策树和深度神经网络模型,并使用记好的情感数据集进行训练,生成训练好的神经网络模型。4.根据权利要求1所述的基于感知分析的智能终端服务调整处理方法,其特征在于,所述获取智能终端前用户的表情特征、语音语调特征、体态特征的步骤包括:通过设置在智能终端上的摄像头采集用户的面部表情特征、体态特征、通过设置在智能终端上的麦克风采集用户的语音语调特征;采集方式以视频、音频和\或图像的形式进行采集。5.根据权利要求1所述的基于感知分析的智能终端服务调整处理方法,其特征在于,所述基于获取的表情特征、语音语调特征、体态特征,通过训练好的神经网络模型进行情感分析和感知,与情感状态进行关联,识别用户的情感状态的步骤包括:基于训练好的神经网络模型对采集到的面部图像进行处理和分析,使用人脸检测算法检测出人脸区域,并提取面部特征点;利用表情识别算法分析提取面部特征点的变化,判断用户的面部表情;基于训练好的神经网络模型对采集到的语音语调特征数据进行语音信号...

【专利技术属性】
技术研发人员:林放
申请(专利权)人:深圳市酷开网络科技股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1