基于全息成像的实时交互方法、装置、设备及存储介质制造方法及图纸

技术编号:24937001 阅读:17 留言:0更新日期:2020-07-17 20:44
本发明专利技术涉及全息交互技术领域,公开了一种基于全息成像的实时交互方法、装置、设备及存储介质,所述方法包括:获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型,对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点,基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互以提高建模速度和所述目标场景模型的精度、直观程度以及形象程度,并进一步实现对所述目标场景模型和所述场景调节装置的实时人机交互,满足用户多样性、创新性和互动性的需求,提高全息交互的实用性和用户体验。

【技术实现步骤摘要】
基于全息成像的实时交互方法、装置、设备及存储介质
本专利技术涉及全息交互
,尤其涉及一种基于全息成像的实时交互方法、装置、设备及存储介质。
技术介绍
随着全息投影技术的问世,全息投影技术已经被广泛地应用到影视、科技展览等领域,但在车载、远程监控领域涉猎甚少,现有车载产品和远场监控系统大多只是单向性的平面展示,缺少互动设计,用户只能被动接收信息,不能够采用语音、动作指令、远程终端等进行人机交互,操控体验欠佳,无法满足人们多样性、创新性和互动性的需求。因此,如何基于全息成像技术实现实时人机交互以提高全息交互的实用性和用户体验,成为一个亟待解决的问题。上述内容仅用于辅助理解本专利技术的技术方案,并不代表承认上述内容是现有技术。
技术实现思路
本专利技术的主要目的在于提供了一种基于全息成像的实时交互方法、装置、设备及存储介质,旨在解决如何基于全息成像技术实现实时人机交互以提高全息交互的实用性和用户体验的技术问题。为实现上述目的,本专利技术提供了一种基于全息成像的实时交互方法,所述方法包括以下步骤:获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型;对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点;基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互。优选地,所述获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型的步骤,具体包括:分别从预设位置获取目标场景的环境信息和生命体信息;基于所述环境信息进行三维建模,生成第一模型,并将所述第一模型输入至第一拼接层中;基于所述生命体信息进行三维建模,生成第二模型,并将所述第二模型输入至第二拼接层中;对处于所述第一拼接层中的所述第一模型和处于所述第二拼接层中的所述第二模型进行自适应拼接,生成初阶场景模型;对所述初阶场景模型进行效果处理,生成目标场景模型。优选地,所述对所述初阶场景模型进行效果处理,生成目标场景模型的步骤,具体包括:获取用户的位置参数和预设效果增强参数;根据所述位置参数和所述预设效果增强参数对所述初阶场景模型进行效果处理,获得目标场景模型。优选地,所述对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点的步骤之前,还包括:对所述目标场景模型进行生命体动作识别和装置驱动识别,获得所述目标场景模型中的生命体动作信息和装置驱动信息;将所述生命体动作信息与预设动作数据库中的动作样本进行匹配,在匹配成功时,获取匹配成功的动作样本的标识信息;获取所述目标场景模型的预设调节点;根据所述装置驱动信息、所述标识信息和所述预设调节点确定预设交互点。优选地,所述基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互的步骤,具体包括:接收来自预设路径的指令信息,识别所述指令信息对应的指令对象;根据所述指令对象确定交互模式的交互类型,所述交互类型包括第一交互模式和第二交互模式,所述第一交互模式基于所述预设交互点中的所述预设调节点建立,所述第二交互模式基于所述预设交互点中的所述装置驱动信息和所述标识信息建立;在所述交互类型为所述第一交互模式时,根据所述第一交互模式对所述目标场景模型进行交互;在所述交互类型为所述第二交互模式时,根据所述第二交互模式对所述目标场景中对应的场景调节装置进行交互。优选地,所述接收来自预设路径的指令信息,识别所述指令信息对应的指令对象的步骤之前,还包括:基于预设词汇数据库建立预设词汇识别模型;对所述预设词汇模型进行预设精度训练,获得预设对象识别模型;相应地,所述接收来自预设路径的指令信息,识别所述指令信息对应的指令对象的步骤,具体包括:接收来自用户的语音指令信息,对所述语音指令信息进行特征提取,获得语音关键信息;将所述语音关键信息输入至所述预设对象识别模型中进行识别,获得所述语音指令信息对应的指令对象。优选地,所述接收来自预设路径的指令信息,识别所述指令信息对应的指令对象的步骤,具体包括:根据所述生命体信息和所述标识信息确定目标警示等级;在所述目标警示等级大于预设警示等级时,获取所述目标警示等级对应的警示动作;根据所述警示动作生成警示指令信息,识别所述警示指令信息对应的指令对象。此外,为实现上述目的,本专利技术还提出一种基于全息成像的实时交互装置,所述装置包括:模型建立模块,用于获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型;交互建立模块,用于对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点;实时交互模块,用于基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互。此外,为实现上述目的,本专利技术还提出一种基于全息成像的实时交互设备,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于全息成像的实时交互程序,所述基于全息成像的实时交互程序配置为实现如上文所述的基于全息成像的实时交互方法的步骤。此外,为实现上述目的,本专利技术还提出一种存储介质,所述存储介质上存储有基于全息成像的实时交互程序,所述基于全息成像的实时交互程序被处理器执行时实现如上文所述的基于全息成像的实时交互方法的步骤。本专利技术获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型,对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点,基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互,通过将所述目标场景中的生命体和非生命体对应的生命体信息和环境信息进行分类获取,再基于所述环境信息和所述生命体信息建立目标场景模型以提高建模速度和所述目标场景模型的精度;通过对所述目标场景模型进行全息投影以实现对所述目标场景模型的全方位展示,并提高所述目标场景模型展示的直观程度和形象程度;通过获取所述目标场景模型中的预设交互点,基于所述预设交互点建立交互模式,再根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互以实现对所述目标场景模型和所述场景调节装置的实时人机交互,满足用户多样性、创新性和互动性的需求,提高全息交互的实用性和用户体验。附图说明图1是本专利技术实施例方案涉及的硬件运行环境的基于全息成像的实时交互设备的结构示意图;图2为本专利技术基于全息成像的实时交互方法第一实施例的流程示意图;图3为本专利技术基于全息成像的实时交互方法第二实施例的流程示意图;图4为本专利技术基于全息成像的实时交互装置第一实施例的结构框图。本专利技术目的的本文档来自技高网...

【技术保护点】
1.一种基于全息成像的实时交互方法,其特征在于,所述方法包括:/n获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型;/n对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点;/n基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互。/n

【技术特征摘要】
1.一种基于全息成像的实时交互方法,其特征在于,所述方法包括:
获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型;
对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点;
基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互。


2.如权利要求1所述的方法,其特征在于,所述获取目标场景的环境信息和生命体信息,并根据所述环境信息和所述生命体信息建立目标场景模型的步骤,具体包括:
分别从预设位置获取目标场景的环境信息和生命体信息;
基于所述环境信息进行三维建模,生成第一模型,并将所述第一模型输入至第一拼接层中;
基于所述生命体信息进行三维建模,生成第二模型,并将所述第二模型输入至第二拼接层中;
对处于所述第一拼接层中的所述第一模型和处于所述第二拼接层中的所述第二模型进行自适应拼接,生成初阶场景模型;
对所述初阶场景模型进行效果处理,生成目标场景模型。


3.如权利要求2所述的方法,其特征在于,所述对所述初阶场景模型进行效果处理,生成目标场景模型的步骤,具体包括:
获取用户的位置参数和预设效果增强参数;
根据所述位置参数和所述预设效果增强参数对所述初阶场景模型进行效果处理,获得目标场景模型。


4.如权利要求1所述的方法,其特征在于,所述对所述目标场景模型进行全息投影,并获取所述目标场景模型中的预设交互点的步骤之前,还包括:
对所述目标场景模型进行生命体动作识别和装置驱动识别,获得所述目标场景模型中的生命体动作信息和装置驱动信息;
将所述生命体动作信息与预设动作数据库中的动作样本进行匹配,在匹配成功时,获取匹配成功的动作样本的标识信息;
获取所述目标场景模型的预设调节点;
根据所述装置驱动信息、所述标识信息和所述预设调节点确定预设交互点。


5.如权利要求4所述的方法,其特征在于,所述基于所述预设交互点建立交互模式,根据所述交互模式对所述目标场景中对应的场景调节装置或所述目标场景模型进行交互的步骤,具体包括:
接收来自预设路径的指令信息,识别所述指令信息对应的指令对象;
根据所述指令对象确定交互模式的交互类型,所述交互类型包括第一交互模式和第二交互模式,所述第一交互模式基于所述预设交互点中的所述预设...

【专利技术属性】
技术研发人员:曹小伍曹景溢雷铭杰
申请(专利权)人:杭州翔毅科技有限公司
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1