System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 应用于用户情绪导向的声音调控方法及装置制造方法及图纸_技高网

应用于用户情绪导向的声音调控方法及装置制造方法及图纸

技术编号:40759147 阅读:2 留言:0更新日期:2024-03-25 20:11
本发明专利技术本发明专利技术涉及数据处理技术领域,公开了一种应用于用户情绪导向的声音调控方法及装置,该方法包括:确定用户的状态信息以及用户所处的当前场景的当前场景信息,根据当前行为状态和当前场景信息,分析当前场景与当前情绪状态的关联度以及关联信息,并根据关联度与预设的关联度阈值之间的关系、用户的状态信息、当前场景信息以及关联信息,生成与当前情绪状态匹配的设备调控参数。可见,实施本发明专利技术能够提高确定出的设备调控参数的准确性以及与用户情绪的匹配程度,提高声音输出设备对用户的情绪调控能力,同时能够自动对声音输出设备进行调控,提高对声音输出设备的调控效率,提升用户对声音输出设备的设备使用体验。

【技术实现步骤摘要】

本专利技术涉及数据处理,尤其涉及一种应用于用户情绪导向的声音调控方法及装置


技术介绍

1、随着社会经济的快速发展,人们的生活节奏也越来越快,在快节奏的生活中,人们往往需要通过看电视或听音乐等声光形式的刺激来提高生活质量。

2、在实际生活中,当电视或音响等声音输出设备的音量或播放内容与用户的收听需求不匹配时,往往需要用户进行手动调控,对声音输出设备的调控效率较低。因此,提出一种能够提高对声音输出设备的调控效率的技术方案显得尤为重要。


技术实现思路

1、本专利技术提供了一种应用于用户情绪导向的声音调控方法及装置,能够有利于提高对声音输出设备的调控效率。

2、为了解决上述技术问题,本专利技术第一方面公开了一种应用于用户情绪导向的声音调控方法,所述方法包括:

3、确定用户的状态信息,并确定所述用户所处的当前场景的当前场景信息,所述状态信息包括所述用户的当前情绪状态和所述用户的当前行为状态;

4、根据所述当前行为状态和所述当前场景信息,分析所述当前场景与所述用户的当前情绪状态的关联度以及关联信息;

5、判断所述关联度与预设的关联度阈值之间的关系,得到判断结果;

6、根据所述判断结果、所述用户的状态信息、所述当前场景信息以及所述关联信息,生成与所述用户的当前情绪状态匹配的设备调控参数,所述设备调控参数包括音量调控参数和/或播放内容调控参数;

7、根据所述设备调控参数调控所述用户所处的当前场景中的至少一个声音输出设备。

8、作为一种可选的实施方式,在本专利技术第一方面中,所述根据所述当前行为状态和所述当前场景信息,分析所述当前场景与所述用户的当前情绪状态的关联度以及关联信息,包括:

9、根据所述当前场景信息,确定所述当前场景中的至少一个声音输出设备对应的当前声音播放信息,所述当前声音播放信息包括当前播放音量和当前播放内容;

10、判断所述当前播放音量是否大于预设的播放音量阈值,当所述当前播放音量大于预设的播放音量阈值时,确定所述当前播放内容与所述用户的当前行为状态之间的第一对应关系;

11、确定所述用户的当前行为状态与所述用户的当前情绪状态之间的第二对应关系,根据所述第一对应关系和所述第二对应关系,分析所述当前场景与所述用户的当前情绪状况的关联度以及关联信息,所述关联信息包括所述当前声音播放信息。

12、作为一种可选的实施方式,在本专利技术第一方面中,所述确定所述用户的当前行为状态与所述用户的当前情绪状态之间的第二对应关系,包括:

13、获取所述用户的历史状态信息,所述历史状态信息包括历史情绪状态信息以及历史行为状态信息,所述历史情绪状态信息包括所述用户的至少一种历史情绪状态以及每种所述历史情绪状态对应的至少一个历史情绪状态等级,所述历史行为状态信息包括所述用户的至少一种历史行为状态以及每种所述历史行为状态对应的至少一个历史行为状态等级;

14、确定每种所述历史情绪状态对应的每个所述历史情绪状态等级与每种所述历史行为状态对应的每个历史行为状态等级之间的匹配度集合;

15、确定所述用户的当前行为状态等级以及当前情绪状态等级,并根据所述匹配度集合确定所述当前行为状态等级与所述当前情绪状态等级之间的目标匹配度,作为所述用户的当前行为状态与所述用户的当前情绪状态之间的第二对应关系。

16、作为一种可选的实施方式,在本专利技术第一方面中,所述根据所述判断结果、所述用户的状态信息、所述当前场景信息以及所述关联信息,生成与所述用户的当前情绪状态匹配的设备调控参数,包括:

17、当所述判断结果表示所述关联度大于或等于所述关联度阈值时,根据所述关联信息和所述用户的状态信息,确定所述当前声音播放信息对所述用户的当前情绪状态的影响系数;

18、根据所述当前场景信息和所述影响系数,确定所述用户的情绪导向需求信息,并根据所述情绪导向需求信息生成第一调控参数;

19、当所述判断结果表示所述关联度小于所述关联度阈值时,根据所述用户的状态信息生成第二调控参数;

20、根据所述第一调控参数或所述第二调控参数,生成与所述用户的当前情绪状态匹配的设备调控参数。

21、作为一种可选的实施方式,在本专利技术第一方面中,所述用户的当前情绪状态包括正面情绪状态或负面情绪状态;

22、所述根据所述当前场景信息和所述影响系数,确定所述用户的情绪导向需求信息,包括:

23、根据所述当前场景信息,确定所述当前场景对应的场景氛围标签,并根据所述当前情绪状态,确定所述用户的情绪标签;

24、确定所述场景氛围标签与所述情绪标签之间的标签对应关系,并根据所述标签对应关系和所述影响系数,确定所述用户的情绪导向需求信息;

25、其中,当所述用户的当前情绪状态包括正面情绪状态时,所述情绪导向需求信息包括正面情绪保持需求或正面情绪促进需求,当所述用户的当前情绪状态包括负面情绪状态时,所述情绪导向需求信息包括负面情绪保持需求或负面情绪抑制需求。

26、作为一种可选的实施方式,在本专利技术第一方面中,所述方法还包括:

27、在所述的根据所述设备调控参数调控所述用户所处的当前场景中的至少一个声音输出设备之后的预设时长后,检测所述用户的目标情绪状态;

28、确定所述目标情绪状态与所述当前情绪状态之间的情绪状态差异;

29、根据所述设备调控参数预测设备调控后所述当前场景中的至少一个声音输出设备对所述用户的情绪调控效果;

30、判断所述情绪状态差异是否满足所述情绪调控效果,当所述情绪状态差异不满足所述情绪调控效果时,根据所述情绪状态差异更新所述设备调控参数,并根据更新后的所述设备调控参数调控所述用户所处的当前场景中的至少一个声音输出设备。

31、作为一种可选的实施方式,在本专利技术第一方面中,所述检测所述用户的目标情绪状态,包括:

32、通过预设的脑机接口设备采集所述用户的脑区活动信息,并根据所述脑区活动信息确定所述用户的第一情绪状态,所述脑区活动信息包括所述用户的脑区激活信息和/或脑电活动信息;

33、检测所述用户的面部信息和社交网络数据,并根据所述面部信息和所述社交网络数据确定所述用户的第二情绪状态和第三情绪状态,所述社交网络数据包括所述用户的聊天数据和/或浏览数据;

34、确定所述脑区活动信息对应的第一权重系数、所述面部信息对应的第二权重系数以及所述社交网络数据对应的第三权重系数;

35、根据所述第一情绪状态和所述第一权重系数、所述第二情绪状态和所述第二权重系数以及所述第三情绪状态和所述第三权重系数确定所述用户的目标情绪状态。

36、本专利技术第二方面公开了一种应用于用户情绪导向的声音调控装置,所述装置包括:

37、确定模块,用于确定用户的状态信息,并确定所述用户所处的当前场景的当前场景信息,所述状本文档来自技高网...

【技术保护点】

1.一种应用于用户情绪导向的声音调控方法,其特征在于,所述方法包括:

2.根据权利要求1所述的应用于用户情绪导向的声音调控方法,其特征在于,所述根据所述当前行为状态和所述当前场景信息,分析所述当前场景与所述用户的当前情绪状态的关联度以及关联信息,包括:

3.根据权利要求2所述的应用于用户情绪导向的声音调控方法,其特征在于,所述确定所述用户的当前行为状态与所述用户的当前情绪状态之间的第二对应关系,包括:

4.根据权利要求2或3所述的应用于用户情绪导向的声音调控方法,其特征在于,所述根据所述判断结果、所述用户的状态信息、所述当前场景信息以及所述关联信息,生成与所述用户的当前情绪状态匹配的设备调控参数,包括:

5.根据权利要求4所述的应用于用户情绪导向的声音调控方法,其特征在于,所述用户的当前情绪状态包括正面情绪状态或负面情绪状态;

6.根据权利要求1-3任一项所述的应用于用户情绪导向的声音调控方法,其特征在于,所述方法还包括:

7.根据权利要求6所述的应用于用户情绪导向的声音调控方法,其特征在于,所述检测所述用户的目标情绪状态,包括:

8.一种应用于用户情绪导向的声音调控装置,其特征在于,所述装置包括:

9.一种应用于用户情绪导向的声音调控装置,其特征在于,所述装置包括:

10.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机指令,所述计算机指令被调用时,用于执行如权利要求1-7任一项所述的应用于用户情绪导向的声音调控方法。

...

【技术特征摘要】

1.一种应用于用户情绪导向的声音调控方法,其特征在于,所述方法包括:

2.根据权利要求1所述的应用于用户情绪导向的声音调控方法,其特征在于,所述根据所述当前行为状态和所述当前场景信息,分析所述当前场景与所述用户的当前情绪状态的关联度以及关联信息,包括:

3.根据权利要求2所述的应用于用户情绪导向的声音调控方法,其特征在于,所述确定所述用户的当前行为状态与所述用户的当前情绪状态之间的第二对应关系,包括:

4.根据权利要求2或3所述的应用于用户情绪导向的声音调控方法,其特征在于,所述根据所述判断结果、所述用户的状态信息、所述当前场景信息以及所述关联信息,生成与所述用户的当前情绪状态匹配的设备调控参数,包括:

5.根据权利要求4所述...

【专利技术属性】
技术研发人员:陈小平唐清生吴雪良
申请(专利权)人:佛山市云米电器科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1