System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种全舱人脸信息录入方法、电子设备及存储介质技术_技高网

一种全舱人脸信息录入方法、电子设备及存储介质技术

技术编号:41283892 阅读:4 留言:0更新日期:2024-05-11 09:33
本申请公开一种全舱人脸信息录入方法、电子设备及存储介质,涉及智能座舱技术领域,所述方法包括:当获取到语音触发信号时,基于发出所述语音触发信号的声音确定目标录入座位,或者是基于发出所述语音触发信号的声音以及融合占位结果确定目标录入座位;然后基于图像传感器获取所述目标录入座位对应的用户录入的人脸图像以完成人脸信息录入,本申请提供的方法简化了基于语音交互的人脸信息录入流程,并且通过结合融合占位结果实现了对智能座舱内所有座位作为目标录入座位的智能识别以完成人脸信息的录入,使全舱人脸录入交互更为简洁和自然,有效提升了用户体验。

【技术实现步骤摘要】

本申请涉及智能座舱,尤其涉及一种全舱人脸信息录入方法、电子设备及存储介质


技术介绍

1、随着智能座舱技术的发展,使得车机在功能上能实现人与车的多种交互功能,其中基于座舱内用户的人脸信息进行的交互应用较为广泛。但是现有技术中,对智能座舱内用户的人脸信息所采用的录入方式存在以下缺陷:其一,鉴于智能座舱的中控屏幕多安装于一排中央位置,二排乘客难以通过屏幕点击触发人脸录入、点击座位图选择座位和通过屏幕交互获得人脸录入引导和结果反馈,因此,智能座舱中基于屏幕交互实现的人脸信息录入方式受限于屏幕位置和交互方式,仅支持主驾和副驾座位的用户的人脸信息录入。其二,基于语音交互实现的人脸信息录入,需要用户进行两次以上的语音交互,人脸信息录入流程较为复杂。

2、因此,本申请旨在解决现有技术中智能座舱不支持后排用户的人脸信息录入或者语音实现的人脸信息录入交互次数多、交互流程复杂的问题。


技术实现思路

1、为了克服上述缺陷,本申请提出的一种全舱人脸信息录入方法、系统及存储介质,将人脸信息的录入位置从主副驾位置扩展至座舱后排,并且简化了基于语音实现的交互流程。

2、在第一方面,本申请提供一种全舱人脸信息录入方法,所述方法包括:当获取到语音触发信号时,基于发出所述语音触发信号的声音确定目标录入座位,或者是基于发出所述语音触发信号的声音以及融合占位结果确定目标录入座位;所述融合占位结果是基于多个车辆传感器数据获得的;基于图像传感器获取所述目标录入座位对应的用户录入的人脸图像;以及基于所述用户录入的人脸图像完成人脸信息录入。

3、优选的,所述方法还包括:判断所述语音触发信号中是否包含有座位信息,是则直接根据所述座位信息确定目标录入座位,否则基于发出所述语音触发信号的声音确定目标录入座位。

4、上述基于发出所述语音触发信号的声音确定目标录入座位具体为:

5、通过计算发出所述语音触发信号的声音到达座舱内麦克风阵列的时间获得音区计算结果,根据所述音区计算结果确定发起人脸信息录入的用户的位置信息,以及基于所述用户的位置信息确定目标录入座位。

6、优选的,上述基于发出所述语音触发信号的声音以及融合占位结果确定目标录入座位具体为:

7、通过计算发出所述语音触发信号的声音到达座舱内麦克风阵列的时间获得音区计算结果,根据所述音区计算结果确定音区识别质量;

8、根据所述音区计算结果和所述音区识别质量判断是否需要结合融合占位结果确定目标录入座位;

9、所述目标录入座位至少包括座舱内非一排区域的中间的座位。

10、通过结合融合占位结果实现了座舱内非一排区域的中间座位的智能识别和人脸信息录入,有效提升了非一排区域的乘客的用户体验。

11、其中,所述根据所述音区计算结果和所述音区识别质量判断是否需要结合融合占位结果确定目标录入座位具体包括:

12、对所述音区识别质量进行判断;

13、若质量达标则直接基于所述音区计算结果确定目标录入座位;

14、若质量不达标则获取融合占位结果,并基于所述音区计算结果和所述融合占位结果确定目标录入座位。

15、或者是具体包括:

16、对所述音区计算结果进行判断;

17、若音区位于座舱内一排区域,则直接基于所述音区计算结果确定所述目标录入座位为主驾驶座位或副驾驶座位;

18、若音区位于座舱内非一排区域,则对所述音区识别质量进行判断,若质量达标则直接基于所述音区计算结果确定所述目标录入座位为非一排区域的左侧或右侧的座位,若质量不达标则获取融合占位结果,并在基于所述融合占位结果确定非一排区域的中间的座位有人时,确定所述目标录入座位为非一排区域的中间的座位。

19、进一步地,所述多个车辆传感器数据包括座椅传感器数据和图像传感器数据;

20、上述获取融合占位结果具体为:

21、基于所述座椅传感器数据和所述图像传感器数据分别获取座椅对应的压力分布和人脸图像;

22、基于所述压力分布和所述人脸图像识别座位是否有人,并将识别结果确定为所述融合占位结果。

23、优选的,所述基于所述语音触发信号确定目标录入座位之后还包括:通过语音和/或屏幕对用户进行人脸信息录入的引导;

24、所述基于所述用户录入的人脸图像完成人脸信息录入具体包括:

25、基于所述用户在所述引导下录入的人脸图像进行人脸特征提取,并根据提取的人脸特征进行质量计算,当质量计算结果达标时提示完成人脸信息录入。

26、在第二方面,本申请提供一种电子设备,该电子设备包括至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器中存储有计算机程序,所述计算机程序被所述至少一个处理器执行以实现上述一种全舱人脸信息录入方法的技术方案中任一项技术方案所述的一种全舱人脸信息录入方法。

27、在第三方面,本申请提供一种计算机可读存储介质,该计算机可读存储介质其中存储有多条程序代码,所述程序代码适于由处理器加载并运行以执行上述一种全舱人脸信息录入方法的技术方案中任一项技术方案所述的一种全舱人脸信息录入方法。

28、本申请上述一个或多个技术方案,至少具有如下一种或多种有益效果:

29、在实施本申请的技术方案中,首先基于发出所述语音触发信号的声音确定目标录入座位,或者是基于发出所述语音触发信号的声音以及融合占位结果确定目标录入座位;然后基于图像传感器获取所述目标录入座位对应的用户录入的人脸图像以完成人脸信息录入,本申请提供的方法简化了基于语音交互的人脸信息录入流程,并且通过结合融合占位结果实现了座舱内非一排区域的中间座位(比如二排中间座位)的乘客的人脸信息录入和录入座位智能识别,进而实现了对智能座舱内所有座位作为目标录入座位的智能识别和人脸信息的录入,使全舱人脸录入交互更为简洁和自然,有效提升了用户体验。

本文档来自技高网...

【技术保护点】

1.一种全舱人脸信息录入方法,其特征在于,所述方法包括:

2.根据权利要求1所述的全舱人脸信息录入方法,其特征在于,所述方法还包括:判断所述语音触发信号中是否包含有座位信息,是则直接根据所述座位信息确定目标录入座位,否则基于发出所述语音触发信号的声音确定目标录入座位。

3.根据权利要求1或2所述的全舱人脸信息录入方法,其特征在于,所述基于发出所述语音触发信号的声音确定目标录入座位具体为:

4.根据权利要求1所述的全舱人脸信息录入方法,其特征在于,所述基于发出所述语音触发信号的声音以及融合占位结果确定目标录入座位具体为:

5.根据权利要求4所述的全舱人脸信息录入方法,其特征在于,所述根据所述音区计算结果和所述音区识别质量判断是否需要结合融合占位结果确定目标录入座位具体包括:

6.根据权利要求4所述的全舱人脸信息录入方法,其特征在于,所述根据所述音区计算结果和所述音区识别质量判断是否需要结合融合占位结果确定目标录入座位具体包括:

7.根据权利要求4所述的全舱人脸信息录入方法,其特征在于,所述多个车辆传感器数据包括座椅传感器数据和图像传感器数据;

8.根据权利要求1所述的全舱人脸信息录入方法,其特征在于,所述基于所述语音触发信号确定目标录入座位之后还包括:通过语音和/或屏幕对用户进行人脸信息录入的引导;

9.一种电子设备,其特征在于,包括:

10.一种计算机可读存储介质,其中存储有多条程序代码,其特征在于,所述程序代码适于由处理器加载并运行以执行权利要求1至8中任一项所述的一种全舱人脸信息录入方法。

...

【技术特征摘要】

1.一种全舱人脸信息录入方法,其特征在于,所述方法包括:

2.根据权利要求1所述的全舱人脸信息录入方法,其特征在于,所述方法还包括:判断所述语音触发信号中是否包含有座位信息,是则直接根据所述座位信息确定目标录入座位,否则基于发出所述语音触发信号的声音确定目标录入座位。

3.根据权利要求1或2所述的全舱人脸信息录入方法,其特征在于,所述基于发出所述语音触发信号的声音确定目标录入座位具体为:

4.根据权利要求1所述的全舱人脸信息录入方法,其特征在于,所述基于发出所述语音触发信号的声音以及融合占位结果确定目标录入座位具体为:

5.根据权利要求4所述的全舱人脸信息录入方法,其特征在于,所述根据所述音区计算结果和所述音区识别质量判断是否需要结合融合占位结果确定目标录...

【专利技术属性】
技术研发人员:洪馨怡廖晓锋杨程竣徐龙秋
申请(专利权)人:蔚来汽车科技安徽有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1