System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 基于参与人数进行直播及互动动态切换方法、系统及终端技术方案_技高网

基于参与人数进行直播及互动动态切换方法、系统及终端技术方案

技术编号:40504785 阅读:7 留言:0更新日期:2024-03-01 13:18
本申请属于教学领域,公开了一种基于参与人数进行直播及互动动态切换方法、系统及终端,确定方法具体包括:获取当前在线视频互动的终端数量、终端身份标识以及当前各个终端录入的用户表情、用户动作以及用户语音。分析所述用户表情、用户动作和用户语音,确定语义。对所述语义打标签,确定多个维度的语义标签。将所述语义标签输入到神经网络模型,确定出当前的互动模式。本申请通过该方法帮助教师在直播过程中不需要花费多余的精力去关注学生的状态,可根据提供的互动模式对课堂模式进行适时调整,调动学生的课堂积极性。

【技术实现步骤摘要】

本申请属于直播教学领域,特别是涉及一种基于参与人数进行直播及互动动态切换方法、系统及终端


技术介绍

1、随着直播技术的发展,教学环境和教师的教学方式也发生了相应的变化。直播课堂上的学习更加具有互动性,知识概念的教授也更为具象化,教学方式则更加个性化。

2、虽然直播课堂一定程度上提高了课堂互动的多样性,但是由于直播教学时教师和学生并不能面对面交流,而且现有的直播教学仍不能对学生的课堂状态进行实时的监测,教师大多数时候只是专注于自己的教学内容,并无法及时发现学生的上课状态,从而调整自己直播教学时的互动方式。基于该现状,在直播课堂中学生更加容易乏困,从而导致课堂效率低下,课堂积极性不高。因此,如何让教师在线上直播教学时适时的调整与学生的互动方式,调动学生课堂积极性是亟待解决的技术问题。


技术实现思路

1、本申请的目的在于提供一种基于参与人数进行直播及互动动态切换方法,能够帮助教师适时调整与学生的互动方式,调动学生课堂积极性。

2、第一方面,本申请实施例提供了一种基于参与人数进行直播及互动动态切换方法,该方法包括:

3、获取当前在线视频互动的终端数量、终端身份标识以及当前各个终端录入的用户表情、用户动作以及用户语音;

4、分析所述用户表情、用户动作和用户语音,确定语义;

5、对所述语义打标签,确定多个维度的语义标签;

6、将所述语义标签输入到神经网络模型,确定出当前的互动模式。

7、在可实现的实施例中,所述分析用户表情、用户动作及用户语音,确定语义包括:

8、根据预设的人脸信息库,结合所述在线视频中的人脸信息,确定每个终端用户的所处位置,并截获每个用户所处位置区域内的人体动作,得到每个用户的动作语义;所述人体动作包括唇部动作动态、面部动态和躯干动作;

9、根据每个用户所处位置区域内截获的唇部动作动态,以及所述在线视频中的音频,确定每个用户发出的语音,得到每个用户的语音语义;

10、根据每个用户所处位置区域内截获的面部动态,确定每个用户的面部表情,结合面部表情分析模型,得到每个用户的情感语义。

11、在可实现的实施例中,所述根据每个用户所处位置区域内截获的唇部动作动态,以及所述在线视频中的音频,确定每个用户发出的语音,得到每个用户的语音语义包括:

12、根据预设的唇部动作动态库,确定每个用户唇部动作动态对应的预估语音;

13、解析所述在线视频中的所述音频,生成多段实际语音;

14、匹配每个所述预估语音和所述实际语音,确定每个唇部动作对应的实际语音,并将每个唇部动作对应的实际语音作为对应用户的语音语义。

15、在可实现的实施例中,所述根据每个用户所处位置区域内截获的面部动态,确定每个用户的面部表情,结合面部表情分析模型,得到每个用户的情感语义包括:

16、根据预设的面部表情动态库,确定每个用户对应的预估面部表情;

17、提取所述预估面部表情和实际面部表情的面部特征点,根据特征点之间的距离确定所述预估面部表情和实际面部表情的匹配度;

18、将匹配度最高的面部表情作为对应用户的情感语义。

19、在可实现的实施例中,所述对语义打标签,确定多个维度的语义标签包括:

20、根据预设的语义标签体系、用户的情感语义、动作语音和语音语义,确定用户当前语义标签;

21、根据用户当前语义标签确定用户不同维度上的语义标签。

22、在可实现的实施例中,所述方法还包括:

23、获取历史观看直播互动方式、用户终端测试成绩和历史观看直播次数,确定互动反馈信息特征;

24、利用所述互动反馈信息特征对互动模式进行修正。

25、在可实现的实施例中,所述利用所述互动反馈信息对互动模式进行修正包括:

26、根据互动反馈信息特征,确定互动得分;

27、分析所述互动得分和用户终端测试成绩,生成所述互动得分和用户终端测试成绩的正比例关系;

28、根据所述正比例关系对互动模式进行修正。

29、第二方面,本申请还提供了一种基于参与人数进行直播及互动动态切换系统,该系统具有实现第一方面或其任意可能的实现方式中的方法的功能。具体地,该系统包括实现第一方面或其任意可能的实现方式中的方法的单元。

30、在其中的一个实施例中,该系统包括:

31、采集模块,用于获取当前在线视频互动的终端数量、终端身份标识以及当前各个终端录入的用户表情、用户动作以及用户语音;

32、分析模块,用于分析所述用户表情、用户动作和用户语音,确定语义;

33、定义模块,用于对所述语义打标签,确定多个维度的语义标签;

34、输出模块,用于将所述语义标签动输入到神经网络模型,确定出当前的互动模式。

35、第三方面,本申请还提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述的方法。

36、第四方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述一项所述的方法。

37、第五方面,本申请还提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述第一方面任意一种实现方式的方法。

38、本申请实施例与现有技术相比存在的有益效果是:

39、本申请通过分析所有终端用户的表情、动作及语音确定所有的用户语义,根据预设的语义标签对所有的语义进行标签分类,最终利用这些语义标签对模型进行训练,确定直播时不同时段适合的互动方式,本申请通过该方法帮助教师在直播过程中不需要花费多余的精力去关注学生的状态,可根据提供的互动模式对课堂模式进行适时调整,调动学生的课堂积极性。

本文档来自技高网...

【技术保护点】

1.一种基于参与人数进行直播及互动动态切换方法,其特征在于,包括:

2.如权利要求1所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述分析用户表情、用户动作及用户语音,确定语义包括:

3.如权利要求2所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述根据每个用户所处位置区域内截获的唇部动作动态,以及所述在线视频中的音频,确定每个用户发出的语音,得到每个用户的语音语义包括:

4.如权利要求2所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述根据每个用户所处位置区域内截获的面部动态,确定每个用户的面部表情,结合面部表情分析模型,得到每个用户的情感语义包括:

5.如权利要求1所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述对语义打标签,确定多个维度的语义标签包括:

6.如权利要求1-5任一项所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述方法还包括:

7.如权利要求6所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述利用所述互动反馈信息对互动模式进行修正包括:

8.一种基于参与人数进行直播及互动动态切换系统,其特征在于,包括:

9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。

10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。

...

【技术特征摘要】

1.一种基于参与人数进行直播及互动动态切换方法,其特征在于,包括:

2.如权利要求1所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述分析用户表情、用户动作及用户语音,确定语义包括:

3.如权利要求2所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述根据每个用户所处位置区域内截获的唇部动作动态,以及所述在线视频中的音频,确定每个用户发出的语音,得到每个用户的语音语义包括:

4.如权利要求2所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,所述根据每个用户所处位置区域内截获的面部动态,确定每个用户的面部表情,结合面部表情分析模型,得到每个用户的情感语义包括:

5.如权利要求1所述的一种基于参与人数进行直播及互动动态切换方法,其特征在于,...

【专利技术属性】
技术研发人员:周雪松孙政
申请(专利权)人:江苏欧帝电子科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1