一种智能座舱控制方法、车辆及存储介质技术

技术编号:36805228 阅读:18 留言:0更新日期:2023-03-09 00:11
本发明专利技术提供了一种智能座舱控制方法、车辆及存储介质,涉及车辆人机交互技术领域。本发明专利技术所述的智能座舱控制方法,包括:当检测到触发条件时,控制座舱进入交互模式;识别用户状态,根据所述用户状态确定交互对象;识别用户动作,根据所述用户动作控制所述交互对象或与所述交互对象对应的设备;当满足退出条件时,控制所述座舱退出所述交互模式。本发明专利技术在交互模式下通过对用户状态进行识别来确定交互对象,在确定交互对象后可以通过用户动作实现对交互对象或对应设备的控制,相较于语音交互而言,采用用户动作进行控制时,简单动作即能实现交互控制,从而能够提高交互速度,降低用户在驾驶过程中的分心程度,实现高效人车交互,并提高驾驶安全性。并提高驾驶安全性。并提高驾驶安全性。

【技术实现步骤摘要】
一种智能座舱控制方法、车辆及存储介质


[0001]本专利技术涉及车辆人机交互
,具体而言,涉及一种智能座舱控制方法、车辆及存储介质。

技术介绍

[0002]智能座舱指车辆上的车机系统,包括驾驶位仪表显示、中央控制台的智能车机以及副驾驶位的娱乐系统等,可以通过触控和语音等多种交互手段对设备进行控制,以实现车身联动。
[0003]现有智能座舱控制大多是先进行检测,再进行车身联动,检测手段与车身联动方式一一对应,动作与执行之间映射单一,例如使用语音交互时,需要先进行用户语音检测,确定对应的交互设备,例如后视镜,再通过相应语音或手势来控制后视镜进行旋转,一方面语音控制交互速度较慢,另一方面旋转手势只与后视镜旋转单一映射,导致无法进行后续功能扩展,同时动作类型过多,其他设备需要采用不同的手势或者其他动作来进行控制交互,不利于用户熟练掌握交互方式,可能会导致用户在驾驶过程中分心,从而影响驾驶安全。

技术实现思路

[0004]本专利技术解决的问题是如何实现高效人车交互以提高驾驶安全性。
[0005]为解决上述问题,本专利技术提供一种智能座舱控制方法、系统及车辆。
[0006]一方面,本专利技术提供一种智能座舱控制方法,包括:
[0007]当检测到触发条件时,控制座舱进入交互模式;
[0008]识别用户状态,根据所述用户状态确定交互对象;
[0009]识别用户动作,根据所述用户动作控制所述交互对象或与所述交互对象对应的设备,其中,在对不同所述交互对象或与所述交互对象对应的设备进行控制时,单一用户动作对应不同的控制逻辑;
[0010]当满足退出条件时,控制所述座舱退出所述交互模式。
[0011]可选地,所述触发条件包括按键、语音、手势、面容和座舱事件,所述当检测到触发条件时,控制座舱进入交互模式包括:
[0012]当检测到预设按键触发、预设语音、预设手势、预设面容或预设座舱事件时,控制所述座舱进入对应的交互模式。
[0013]可选地,所述根据所述用户状态确定交互对象包括:
[0014]根据用户位置和用户姿态确定用户指向,根据所述用户指向和座舱空间数据确定指向设备,将所述指向设备确定为所述交互对象。
[0015]可选地,所述用户指向包括手臂指向,所述根据所述用户指向和座舱空间数据确定指向设备包括:
[0016]根据所述手臂指向确定用户当前所指向的空间焦点,将所述空间焦点上的可控制
设备确定为所述指向设备。
[0017]可选地,所述根据所述用户动作控制所述交互对象或与所述交互对象对应的设备包括:
[0018]当所述交互对象为座舱控件时,控制所述座舱控件状态切换或数值调整;
[0019]当所述交互对象为虚拟平面时,控制与所述虚拟平面对应的设备执行所述用户动作所对应的预设指令,其中,所述虚拟平面用于用户间接控制对应的设备。
[0020]可选地,所述根据所述用户动作控制所述交互对象或与所述交互对象对应的设备还包括:
[0021]当所述交互对象为所述座舱控件时,通过AR显示控件图标可操作提示;
[0022]当所述交互对象为所述虚拟平面时,通过AR显示虚拟控件提示。
[0023]可选地,所述退出条件包括语音、手势、时长和座舱事件,所述当满足退出条件时,控制所述座舱退出所述交互模式包括:
[0024]当检测到预设语音、预设手势、预设座舱事件或达到预设时长时,控制所述座舱退出所述交互模式。
[0025]可选地,所述智能座舱控制方法还包括:在识别用户状态和识别用户动作时,通过音效和/或氛围灯进行识别反馈。
[0026]第二方面,本专利技术提供一种车辆,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上智能座舱控制方法。
[0027]第三方面,本专利技术提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器读取并运行时,实现如上智能座舱控制方法。
[0028]本专利技术所述的智能座舱控制方法、车辆及存储机制,在交互模式下通过对用户状态进行识别来确定交互对象,在确定交互对象后可以通过用户动作实现对交互对象自身或对应设备的控制,相较于语音交互而言,采用用户动作进行控制时,只需要一两个简单的动作就能实现交互控制,从而能够提高交互速度,降低用户在驾驶过程中的分心程度,实现高效人车交互,并提高驾驶安全性;另外,对不同交互对象进行控制时,可采用相同的手势或其它动作来进行操控,有利于用户快速掌握交互方式,同样能够提高驾驶安全性。
附图说明
[0029]图1为本专利技术实施例的智能座舱控制方法的示意图;
[0030]图2为本专利技术实施例的AR

HUD显示操控指令的示意图。
具体实施方式
[0031]为使本专利技术的上述目的、特征和优点能够更为明显易懂,下面结合附图对本专利技术的具体实施例做详细的说明。
[0032]如图1所示,本专利技术实施例提供一种智能座舱控制方法,包括:
[0033]当检测到触发条件时,控制座舱进入交互模式。
[0034]具体地,在进行人车交互前,首先需要进入交互模式,为防止用户随便动一下就会导致多个控件激活的情况发生,需要设定相应的触发条件,以保证在用户需要时进入交互
模式。
[0035]识别用户状态,根据所述用户状态确定交互对象。
[0036]具体地,可以采用视觉系统对用户状态进行识别,从而根据用户状态匹配车内可操控设备,即交互对象,确定交互对象后,用户可以通过语音或手势等与交互对象进行交互,实现控件开关和数值调整等控制手段。
[0037]其中,可操控设备包括舱内车门,车窗,天窗,音响,座椅,语音助手,中控屏,后视镜,舱内氛围灯,香氛,空调出风口和娱乐屏等。
[0038]识别用户动作,根据所述用户动作控制所述交互对象或与所述交互对象对应的设备,其中,在对不同所述交互对象或与所述交互对象对应的设备进行控制时,单一用户动作对应不同的控制逻辑。
[0039]具体地,为提高交互速度,以及降低用户在驾驶过程中的分心程度,优先以用户动作进行交互,相较于语音交互而言,采用用户动作时,需要用户分心的时间更短。识别用户动作主要是通过对人体骨架的识别来实现的,进而能够匹配座舱内可操控的部件,当匹配成功后,用户可通过同一组简单的手势进行不同操控,如调整后视镜方向、座椅角度以及单一喇叭的音量等,均可以通过手指上下划或者左右划来实现。
[0040]当满足退出条件时,控制所述座舱退出所述交互模式。
[0041]具体地,在交互模式下,用户的任意语音和手势等均可能触发相应功能,因此不能一直处于交互模式,在满足退出条件时,退出交互模式。
[0042]可选地,所述触发条件包括按键、语音、手势、面容和座舱事件,所述当检测到触发条件时,控制座舱进入交互模式包括:
[0043]当检本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种智能座舱控制方法,其特征在于,包括:当检测到触发条件时,控制座舱进入交互模式;识别用户状态,根据所述用户状态确定交互对象;识别用户动作,根据所述用户动作控制所述交互对象或与所述交互对象对应的设备,其中,在对不同所述交互对象或与所述交互对象对应的设备进行控制时,单一用户动作对应不同的控制逻辑;当满足退出条件时,控制所述座舱退出所述交互模式。2.根据权利要求1所述的智能座舱控制方法,其特征在于,所述当检测到触发条件时,控制座舱进入交互模式包括:当检测到预设按键触发、预设语音、预设手势、预设面容或预设座舱事件时,控制所述座舱进入对应的交互模式。3.根据权利要求1所述的智能座舱控制方法,其特征在于,所述根据所述用户状态确定交互对象包括:根据用户位置和用户姿态确定用户指向,根据所述用户指向和座舱空间数据确定指向设备,将所述指向设备确定为所述交互对象。4.根据权利要求3所述的智能座舱控制方法,其特征在于,所述用户指向包括手臂指向,所述根据所述用户指向和座舱空间数据确定指向设备包括:根据所述手臂指向确定用户当前所指向的空间焦点,将所述空间焦点上的可控制设备确定为所述指向设备。5.根据权利要求1所述的智能座舱控制方法,其特征在于,所述根据所述用户动作控制所述交互对象或与所述交互对象对应的设备包括:当所述交互对象为座舱控...

【专利技术属性】
技术研发人员:杜思军朱洋楚明扬李阳于硕君
申请(专利权)人:吉利汽车研究院宁波有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1