一种机器人交互方法及装置制造方法及图纸

技术编号:16225213 阅读:39 留言:0更新日期:2017-09-19 10:55
本发明专利技术实施例公开了一种机器人交互方法及装置,该方法包括:监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。本发明专利技术实施例能够根据交互对象的情感信息做出反应,在与交互对象进行交流互动时,与交互对象产生情感上的共鸣,人机交互效果得到了改善,提升了用户体验感。

Robot interaction method and device

The embodiment of the invention discloses a device and a robot interaction method, the method includes: interactive monitoring robot's judgment, the interactive situation and the current situation of interactive robots to match; if the robot locates the interactive situation and the current situation of interactive robots, control the robot displays the current situation of interactive interactive expression corresponding to the interactive situation; if the robot and the robot set does not match the current situation of interactive, the robot's current situation of interactive setting for the interactive situation to monitor, control the robot interactive display expression corresponding to the interactive situation to monitor the. The embodiment of the invention can react according to the object of emotional information in interact with interactive objects, resulting in emotional resonance and interactive objects, interactive effects are improved, to enhance the user experience.

【技术实现步骤摘要】
一种机器人交互方法及装置
本专利技术实施例涉及机器人技术,尤其涉及一种机器人交互方法及装置。
技术介绍
随着社会的不断发展和进步,我国正处于城镇化和工业化的快速发展时期,实现城市的可持续发展,建设智慧城市已成为当今世界城市发展不可逆转的历史潮流。智慧服务是智慧城市发展的重要环节之一,服务型机器人以其应用范围广泛、可靠性高等优点成为一种必然趋势。良好的人机互动是评价服务型机器人好坏的关键性因素,目前,服务型机器人往往是无情绪的,在为人类提供服务的过程中,缺少情感上的交流,难以做到真正意义上的沟通,这也成为了制约其发展的原因之一。现有技术中,大多数服务型机器人在提供服务时,交互过程中的表情呆板,欠缺变化,交互的维度简单无法与人类产生情感上的共鸣,导致人机交互效果差,用户体验感不佳。
技术实现思路
本专利技术实施例提供一种机器人交互方法及装置,以解决现有技术中机器人交互效果差、用户体验感不佳的问题。第一方面,本专利技术实施例提供了一种机器人交互方法,包括:监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。进一步地,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配,至少包括:接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;和/或,通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。进一步地,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配之前,包括:加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;建立所述表情集与所述状态集的第三映射关系;获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;其中,所述表情资源包括图片、动画和视频的一种或多种。进一步地,控制所述机器人显示与所述当前交互情境对应的交互表情,包括:读取所述表情集的播放模式和定时器的变量时间;按照所述变量时间以设定的播放模式显示交互表情。进一步地,根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情之后,包括:初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。第二方面,本专利技术实施例还提供了一种机器人交互设备,包括:匹配模块,用于监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;第一匹配结果模块,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;第二匹配结果模块,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。进一步地,所述匹配模块包括:第一匹配单元,用于接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;第二匹配单元,用于通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。进一步地,所述装置还包括:第一加载单元,用于加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;第二加载单元,用于加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;建立单元,用于建立所述表情集与所述状态集的第三映射关系;获取单元,用于获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;提取单元,用于根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;其中,所述表情资源包括图片、动画和视频的一种或多种。进一步地,所述第一匹配结果模块包括:读取单元,用于读取所述表情集的播放模式和定时器的变量时间;显示单元,用于当所述交互对象所处的交互情境与所述机器人所处的当前交互情境匹配的状态下,按照所述变量时间以设定的播放模式显示交互表情。进一步地,所述装置还包括:初始化单元,用于初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。本专利技术实施例通过监测机器人所处的交互情境,使机器人设定的当前交互情境与机器人所处的交互情境相匹配,从而使机器人能够根据交互对象的情感信息做出反应,在与交互对象进行交流互动时,可以显式地表达情绪,提供面部表情和交互状态的呈现,与交互对象产生情感上的共鸣,人机交互效果得到了改善,提升了用户体验感,可应用范围广。附图说明图1是本专利技术实施例一中的一种机器人交互方法的流程图;图2是本专利技术实施例二中的一种机器人交互方法的流程图;图3是本专利技术实施例三中的一种机器人交互方法的流程图;图4a是本专利技术实施例四中的一种机器人交互方法的流程图;图4b是本专利技术实施例四中的一种机器人交互方法的流程图;图5是本专利技术实施例五中的一种机器人交互装置的结构示意图。具体实施方式下面结合附图和实施例对本专利技术作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本专利技术,而非对本专利技术的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本专利技术相关的部分而非全部结构。实施例一图1为本专利技术实施例一提供的一种机器人交互方法的流程图,本实施例可适用于通过匹配机器人所处的交互情境与机器人设定的当前交互情境来进行人机交互的情况,该方法可以由一种机器人交互装置来执行,该装置可以采用软件和/或硬件的方式实现,一般集成于机器人中。本专利技术实施例一的方法具体包括:S101、监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配。具体的,机器人包括两个通用显示器,两个通用显示器上下放置,一个位于机器人的上部,近似于头部区域,用于呈现与交互情境匹配的交互状态和/或交互表情,另一个位于机器人的下部,用于为交互对象提供服务,例如,交互对象可以通过该显示器的显示屏幕查询天气、余额、汇率等事项,放置于机器人上部的显示屏幕尺寸小于放置于机器人下部的显示屏幕尺寸。监测机器人所处的交互情境包括监测机器人所处的交互环境、机器人的交互对象以及机器人交互对象的交互状态和表情等元素,判断机器人所处于的交互情境与机器人获取并呈现的当前交互情境是否匹配。S102、若所述机器人所处的交互情境本文档来自技高网...
一种机器人交互方法及装置

【技术保护点】
一种机器人交互方法,其特征在于,包括:监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。

【技术特征摘要】
1.一种机器人交互方法,其特征在于,包括:监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。2.根据权利要求1所述的方法,其特征在于,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配,至少包括:接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;和/或,通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。3.根据权利要求2所述的方法,其特征在于,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配之前,包括:加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;建立所述表情集与所述状态集的第三映射关系;获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;其中,所述表情资源包括图片、动画和视频的一种或多种。4.根据权利要求3所述的方法,其特征在于,控制所述机器人显示与所述当前交互情境对应的交互表情,包括:读取所述表情集的播放模式和定时器的变量时间;按照所述变量时间以设定的播放模式显示交互表情。5.根据权利要求3所述的方法,其特征在于,根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情之后,包括:初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情...

【专利技术属性】
技术研发人员:王明高张晓李月祥史文华王金祥张刚刚李晨
申请(专利权)人:上海棠棣信息科技股份有限公司
类型:发明
国别省市:上海,31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1