用户智能设备及其情绪图符处理方法技术

技术编号:22075894 阅读:21 留言:0更新日期:2019-09-12 14:11
本申请提供一种用户智能设备及其情绪图符处理方法,用户智能设备获取用户的输入信息,根据所述输入信息对用户进行情绪识别,根据情绪识别的结果得到对应的关键信息,根据所述关键信息生成得到对应的情绪图符。本申请能够根据用户输入信息进行情绪识别,将情绪图片、文字或语言等生成对应的情绪图符,实现了多种输入途径的快捷输入效果,还可以实现对较长输入信息的情绪识别,满足了个性化需求,而且在一定程度上实现了人工智能。

User Intelligent Device and Its Emotional Character Processing Method

【技术实现步骤摘要】
用户智能设备及其情绪图符处理方法
本申请涉及信息处理
,具体涉及一种情绪图符处理方法,以及应用所述情绪图符处理方法的用户智能设备。
技术介绍
随着个人移动终端技术的高速发展,个人的移动沟通功能也越来越完善,相应地,沟通时所需要使用到的图文并茂的表情图符(图片或各种字符串的组合)也逐渐走向个性化。比如,当用户在即时通信软件或社交平台等输入消息时,如果想要插入表情符,会从已有的表情符中选取某个希望插入的表情符,或者输入与预设表情符相对应的文字,然后在表情符推荐结果中选择某个。其中,“已有的表情符”一般来自于应用软件中预设或网络下载,且“表情符”一般仅指emoji和静止或动态的图形。当然,用户也可以通过拍摄图像或视频,并添加文字,以生成静止或动态的表情图。但是,用户仅能使用已设计好的表情符,且仅能够通过手动点击选取或文字输入获得对应的表情符推荐结果,但用户输入的消息多种多样,不仅有文字还有语音、图片、视频等,因此这种方案不能满足其他的信息输入场景。而且,有时候输入的文字也仅能通过与已有表情符的名字相比较,从而获得输入文字相关的表情符推荐结果,当输入文字具有情绪含义但是不完全等于已有表情符的名字时,无法获得表情符推荐结果。比如,输入“我好开心呀”,无法获得“开心”相关的表情符推荐,必须输入“开心”才能获得,并不符合用户的真实使用习惯。进一步来说,已设计好的表情符,不够个性化,无法满足当下用户的个性化需求。同样,用户通过拍摄图像或视频来生成静止或动态的表情符,还需通过添加文字等编辑来表明情绪状态,虽然满足了个性化需求,但是不够智能轻便,增加用户负担,用户体验较差。针对现有技术的多方面不足,本申请的专利技术人经过深入研究,提出一种用户智能设备及其情绪图符处理方法。
技术实现思路
本申请的目的在于,提供一种用户智能设备及其情绪图符处理方法,能够根据用户输入信息进行情绪识别,将情绪图片、文字或语言等生成对应的情绪图符,实现了多种输入途径的快捷输入效果,还可以实现对较长输入信息的情绪识别,满足了个性化需求,而且在一定程度上实现了人工智能。为解决上述技术问题,本申请提供一种情绪图符处理方法,作为其中一种实施方式,所述情绪图符处理方法包括步骤:用户智能设备获取用户的输入信息;根据所述输入信息对用户进行情绪识别;根据情绪识别的结果得到对应的关键信息;根据所述关键信息生成得到对应的情绪图符。作为其中一种实施方式,所述用户智能设备获取用户的输入信息的步骤,具体包括:用户智能设备通过摄像装置拍摄用户的肢体语言内容;对所述肢体语言内容进行预处理以作为所述输入信息。作为其中一种实施方式,所述对所述肢体语言内容进行预处理以作为所述输入信息的步骤,具体包括:对所述肢体语言内容进行动作识别;根据动作识别的结果获取动作幅度变化值大于预设阈值的目标部位;将所述目标部位的动作作为所述输入信息。作为其中一种实施方式,所述肢体语言内容为眼睛、嘴巴、手部、头部、躯干、脚部或任意两种或以上组合的动作。作为其中一种实施方式,所述用户智能设备获取用户的输入信息的步骤,具体包括:用户智能设备通过麦克风获取用户的语音内容;对所述语言内容进行预处理以作为所述输入信息。作为其中一种实施方式,所述根据所述输入信息对用户进行情绪识别的步骤,具体包括:采用基于语音情感分析技术对所述语音内容的数据进行情绪识别。作为其中一种实施方式,所述用户智能设备获取用户的输入信息的步骤,具体包括:用户智能设备通过文本消息输入框获取用户的文本文字;对所述文本文字进行预处理以作为所述输入信息。作为其中一种实施方式,所述根据所述输入信息对用户进行情绪识别的步骤,具体包括:采用基于文本情感分析技术对所述文本文字的数据进行情绪识别。作为其中一种实施方式,所述根据所述关键信息生成得到对应的情绪图符的步骤之后,还包括:将所述情绪图符提示给用户进行预览;判断是否获取到用户的确认操作;若获取到用户的确认操作,发送和/或存储所述情绪图符。作为其中一种实施方式,所述根据所述关键信息生成得到对应的情绪图符的步骤,具体包括:根据所述关键信息获取对应的情绪表达载体;根据所述情绪表达载体生成得到对应的情绪图符。作为其中一种实施方式,所述情绪表达载体为情绪图片、情绪文字、情绪语音或三者的任意组合。作为其中一种实施方式:当所述输入信息为肢体语言内容时,所述关键信息为眼睛、嘴巴、手部、头部、躯干、脚部或任意两种或以上组合所构成的情绪动作信息;当所述输入信息为语言内容时,所述关键信息为语句、语气、用词、场景或任意两种或以上组合所构成的情绪语音信息;当所述输入信息为文本文字时,所述关键信息为语句、用词、场景、上下文或任意两种或以上组合所构成的情绪文本信息;其中,所述情绪图符由所述眼睛、嘴巴、手部、头部、躯干、脚部或任意两种或以上组合所构成的情绪动作信息,语句、语气、用词、场景或任意两种或以上组合所构成的情绪语音信息,和/或,语句、用词、场景、上下文或任意两种或以上组合所构成的情绪文本信息模拟所得到。作为其中一种实施方式,所述情绪图符为用于沟通交流的包括图片、文字和/或语音的表情静态图、表情小视频、表情动态图。作为其中一种实施方式,所述情绪图符在发送给接收方时,还用于根据接收方的点播动作产生互动效果。为解决上述技术问题,本申请还提供一种用户智能设备,作为其中一种实施方式,所述用户智能设备包括处理器,所述处理器用于执行计算机程序,以实现如上所述的情绪图符处理方法。本申请提供的用户智能设备及其情绪图符处理方法,用户智能设备获取用户的输入信息,根据所述输入信息对用户进行情绪识别,根据情绪识别的结果得到对应的关键信息,根据所述关键信息生成得到对应的情绪图符。本申请能够根据用户输入信息进行情绪识别,将情绪图片、文字或语言等生成对应的情绪图符,实现了多种输入途径的快捷输入效果,还可以实现对较长输入信息的情绪识别,满足了个性化需求,而且在一定程度上实现了人工智能。上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。附图说明图1为本申请的情绪图符处理方法一实施方式的流程示意图。图2为本申请用户智能设备一实施方式的模块示意图。具体实施方式为更进一步阐述本申请为达成预定申请目的所采取的技术手段及功效,以下结合附图及较佳实施例,对本申请详细说明如下。通过具体实施方式的说明,当可对本申请为达成预定目的所采取的技术手段及效果得以更加深入且具体的了解,然而所附图式仅是提供参考与说明之用,并非用来对本申请加以限制。请参阅图1,图1为本申请的情绪图符处理方法一实施方式的流程示意图,本实施方式情绪图符处理方法可以应用到手机、笔记本电脑、平板电脑或者可穿戴设备等用户智能设备上。需要说明的是,如图1所示,本实施方式所述的情绪图符处理方法可以包括但不限于如下几个步骤。步骤S101,用户智能设备获取用户的输入信息。步骤S102,根据所述输入信息对用户进行情绪识别。步骤S103,根据情绪识别的结果得到对应的关键信息。步骤S104,根据所述关键信息生成得到对应的情绪图符。在本实施方式中,所述根据所述关键信息生成本文档来自技高网
...

【技术保护点】
1.一种情绪图符处理方法,其特征在于,所述情绪图符处理方法包括步骤:用户智能设备获取用户的输入信息;根据所述输入信息对用户进行情绪识别;根据情绪识别的结果得到对应的关键信息;根据所述关键信息生成得到对应的情绪图符。

【技术特征摘要】
1.一种情绪图符处理方法,其特征在于,所述情绪图符处理方法包括步骤:用户智能设备获取用户的输入信息;根据所述输入信息对用户进行情绪识别;根据情绪识别的结果得到对应的关键信息;根据所述关键信息生成得到对应的情绪图符。2.根据权利要求1所述的情绪图符处理方法,其特征在于,所述用户智能设备获取用户的输入信息的步骤,具体包括:用户智能设备通过摄像装置拍摄用户的肢体语言内容;对所述肢体语言内容进行预处理以作为所述输入信息。3.根据权利要求2所述的情绪图符处理方法,其特征在于,所述对所述肢体语言内容进行预处理以作为所述输入信息的步骤,具体包括:对所述肢体语言内容进行动作识别;根据动作识别的结果获取动作幅度变化值大于预设阈值的目标部位;将所述目标部位的动作作为所述输入信息。4.根据权利要求3所述的情绪图符处理方法,其特征在于,所述肢体语言内容为眼睛、嘴巴、手部、头部、躯干、脚部或任意两种或以上组合的动作。5.根据权利要求1所述的情绪图符处理方法,其特征在于,所述用户智能设备获取用户的输入信息的步骤,具体包括:用户智能设备通过麦克风获取用户的语音内容;对所述语言内容进行预处理以作为所述输入信息。6.根据权利要求5所述的情绪图符处理方法,其特征在于,所述根据所述输入信息对用户进行情绪识别的步骤,具体包括:采用基于语音情感分析技术对所述语音内容的数据进行情绪识别。7.根据权利要求1所述的情绪图符处理方法,其特征在于,所述用户智能设备获取用户的输入信息的步骤,具体包括:用户智能设备通过文本消息输入框获取用户的文本文字;对所述文本文字进行预处理以作为所述输入信息。8.根据权利要求7所述的情绪图符处理方法,其特征在于,所述根据所述输入信息对用户进行情绪识别的步骤,具体包括:采用基于文本情感分析技术对所述文本文字的数据进行情绪识别。9.根据权利要求1-8任一项所述的情绪图符处理方法,其特征在于,所述...

【专利技术属性】
技术研发人员:易欣周凡贻尚国强
申请(专利权)人:深圳传音控股股份有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1