一种机器人面部表情实现机构及控制方法技术

技术编号:31831684 阅读:18 留言:0更新日期:2022-01-12 13:08
本发明专利技术涉及一种机器人面部表情实现机构及控制方法,该机构包括通过相互独立的用于实现多种面部表情的眼皮控制模块、眼球上下控制模块、眼球左右控制模块以及嘴巴开合控制模块;所述方法采用情感决策模型,基于机器人采集到的环境信息以及认知获得的智能体感知、行为和动作信息,进行反馈自适应学习,获得当前状态的行为,然后通过机器人面部表情实现机构进行展示与现有技术相比,本发明专利技术具有结构简单、面部表情多样化以及人机交互灵活的优点。面部表情多样化以及人机交互灵活的优点。面部表情多样化以及人机交互灵活的优点。

【技术实现步骤摘要】
一种机器人面部表情实现机构及控制方法


[0001]本专利技术涉及机器人面部表情控制领域,尤其是涉及一种机器人面部表情实现机构及控制方法。

技术介绍

[0002]随着低出生率和老龄化等社会问题的不断加剧,劳动力逐渐匮乏,家庭智能服务机器人则应运而生,它不仅要具有友好、美观的外观,而且要能与人类进行流畅地情感及信息交流,因此能够表达情感的仿人表情机器人的研究引起了诸多机器人研究者的关注。
[0003]目前,研究的仿人表情机器人趋于通过复杂的马达控制来形成有限的表情控制,而且这些表情几乎都是由工作人员控制展示的,固定的表情数量和脸部变化,会使机器人的表情展示机械感严重。此外,大量的电机在头部堆积,会使仿人表情机器人的重量大增,不利于后续机器人行动平台的搭建,仅仅有着较好的表情反馈,没有灵活的人机交互性,也无法打开市场。
[0004]目前表情机器人的研究存在以下不足:
[0005]1)头部各器官的结构设计复杂,不易控制,成本较高,即使与人类具有很高的相似度,但它的一举一动也会让人有一种毛骨悚然的感觉。这也验证了日本机器人专家森政弘于1970年提出的恐怖谷理论.当机器人与人类在外表、动作上的相似度到达一个特定程度,机器的类人反应会变得令人反感,哪怕机器人与人类有一点点的差别,都会显得非常刺眼,让整个机器人显得非常僵硬恐怖,这在仿人表情机器人上会被成倍的放大;
[0006]2)机器人双眼球、眼睑的动作,如上下、左右及开合等都同步且固定,不能展示不同程度的表情变化,例如无法区分大笑与微笑的区别,这会大大加快受试者对机器人好奇感的降低速度,应用在人机交互中,则会引起人们的无聊感。
[0007]3)情感决策的不足,现有的表情机器人无法感知人类的表情、行为和动作,不能做到通过采集环境的信息进行表情输出的加工,这使得表情机器人社会交互很低。

技术实现思路

[0008]本专利技术的目的就是为了克服上述现有技术存在的缺陷而提供一种结构简单、表情多样、自适应学习能力强以及人机交互灵活的机器人面部表情实现机构及控制方法。
[0009]本专利技术的目的可以通过以下技术方案来实现:
[0010]根据本专利技术的第一方面,一种机器人面部表情实现机构,该机构包括通过相互独立的用于实现多种面部表情的眼皮控制模块、眼球上下控制模块、眼球左右控制模块以及嘴巴开合控制模块。
[0011]优选地,所述眼皮控制模块设有两个通过连杆机构与上下眼皮相连的用于控制眼皮眨动的舵机。
[0012]优选地,所述眼皮控制模块包括与所述连杆机构连接的用于控制上下眼皮同时开合的啮合齿轮。
[0013]优选地,所述眼球左右控制模块设有两个通过舵盘与眼球结构体相连的用于控制眼球左右摆动的舵机。
[0014]优选地,所述眼球上下控制模块设有两个通过舵盘与眼球结构体相连的用于控制眼球上下摆动的舵机。
[0015]优选地,所述嘴巴开合控制模块包括两组分别控制上下嘴唇开合依次连接的弹簧片、连杆机构、舵盘以及舵机。
[0016]根据本专利技术的第二方面,提供了一种基于上述机器人面部表情实现机构的控制方法,该方法采用情感决策模型,基于机器人采集到的环境信息以及认知获得的智能体感知、行为和动作信息,进行反馈自适应学习,获得当前状态的行为,然后通过机器人面部表情实现机构进行展示;所述方法包括以下步骤:
[0017]步骤S1、通过情感分类模型将情感进行分类,建立具有认知和记忆的隐马尔可夫模型HMM,采用多维度空间坐标表达不同类别的状态;
[0018]步骤S2、建立基于心境能量与情绪能量动态分配的情感能量模型,获取记忆状态和当前刺激状态的情感能量权重;
[0019]步骤S3、基于状态信息以及步骤S2中获取的情感能量权重,通过交叉自适应阵列结构模块CAA进行反馈自适应学习,获取当前状态所对应的行为;
[0020]步骤S4、在预设表情的基础上,基于步骤S3获取当前状态所对应的行为进行调整,经过运动控制算法,通过机器人面部表情实现机构展示出最终的面部表情。
[0021]优选地,所述步骤S1中的情感分类包括高兴、难过、生气、惊讶以及平静。
[0022]优选地,所述步骤S3中的交叉自适应阵列结构模块CAA包括交叉记忆存储模块、状态评估模块、行为选择模块以及个性参数模块;所述交叉自适应阵列结构模块CAA的反馈自适应学习过程为:
[0023]步骤S31、所述状态评估模块基于交叉记忆存储模块不断获取的状态信息,计算所处状态的情感值以及下一次在相同状态再次选择该行为的概率值;
[0024]步骤S32、所述交叉记忆存储模块基于获取的状态评估模块计算出的所处状态的情感值以及概率值,通过行为计算处理得到学习后的行为;
[0025]步骤S33、所述行为选择模块对学习后的行为进行处理,获得最终的行为。
[0026]优选地,所述个性参数模块包括传递给行为选择模块的个性参数以及传递给状态评估模块的生理参数;
[0027]所述个性参数包括与特殊智能体相关的好奇心和忍耐度;
[0028]所述生理参数包括产生中断行为的促进信号。
[0029]与现有技术相比,本专利技术具有以下优点:
[0030]1)本专利技术提出了一种面部表情设计来代替逼近人脸的表情机器人,根据人们对动物的亲和度和接受度,有效的消除了人们的抗拒心理;
[0031]2)本专利技术提出了一种机器人面部表情实现机构,通过独立调节各个控制模块中舵机的角度及频率,在简单的结构下,展示出多样的表情,有效地解决了表情机器人结构复杂,五官僵硬,不能开放表达情感的问题;此外,眼部与嘴部各控制模块之间既能共同协作表达情感又能相对独立易于改进;
[0032]3)本专利技术提出了基于情感决策模型的控制方法,表情机器人通过认知控制虚拟智
能体的感知、行为和动作,然后指定运动规划,确定当前的行为;通过增加机器人的感觉和知觉,采集环境的信息并进行加工,最后通过运动控制算法结合面部表情实现机构展示出表情;该方法具有很强的学习能力,以好奇驱动作为初始行为,然后逐渐地被学习后的行为所取代,使表情机器人情绪更加丰富,人机交互性更强。
附图说明
[0033]图1~图4为不同状态的面部表情示意图;
[0034]图5为面部表情实现机构示意图;
[0035]图6为眼皮控制结构示意图;
[0036]图7为眼球控制结构示意图;
[0037]图8为嘴部开合控制结构示意图;
[0038]图9为三维情感模型示意图;
[0039]图10为二维情感模型示意图;
[0040]图11为交叉自适应阵列结构CAA示意图。
[0041]其中,1为第一舵机、2为第二舵机。
具体实施方式
[0042]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术的一部分实施例,而不是全部实施例。基于本专利技术中的实施例,本领域普通本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种机器人面部表情实现机构,其特征在于,该机构包括通过相互独立的用于实现多种面部表情的眼皮控制模块、眼球上下控制模块、眼球左右控制模块以及嘴巴开合控制模块。2.根据权利要求1所述的一种机器人面部表情实现机构,其特征在于,所述眼皮控制模块设有两个通过连杆机构与上下眼皮相连的用于控制眼皮眨动的舵机。3.根据权利要求2所述的一种机器人面部表情实现机构,其特征在于,所述眼皮控制模块包括与所述连杆机构连接的用于控制上下眼皮同时开合的啮合齿轮。4.根据权利要求1所述的一种机器人面部表情实现机构,其特征在于,所述眼球左右控制模块设有两个通过舵盘与眼球结构体相连的用于控制眼球左右摆动的舵机。5.根据权利要求1所述的一种机器人面部表情实现机构,其特征在于,所述眼球上下控制模块设有两个通过舵盘与眼球结构体相连的用于控制眼球上下摆动的舵机。6.根据权利要求1所述的一种机器人面部表情实现机构,其特征在于,所述嘴巴开合控制模块包括两组分别控制上下嘴唇开合依次连接的弹簧片、连杆机构、舵盘以及舵机。7.一种基于权利要求1所述机器人面部表情实现机构的控制方法,其特征在于,该方法采用情感决策模型,基于机器人采集到的环境信息以及认知获得的智能体感知、行为和动作信息,进行反馈自适应学习,获得当前状态的行为,然后通过机器人面部表情实现机构进行展示;所述方法包括以下步骤:步骤S1、通过情感分类模型将情感进行分类,建立具有认知和记忆的隐马尔可夫模型HMM,采用多维度空间坐标表达不同类...

【专利技术属性】
技术研发人员:李保江郭昱廷柏基波王海燕王西超
申请(专利权)人:上海电机学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1