一种基于对比学习的自动驾驶鲁棒控制方法及系统技术方案

技术编号:42149000 阅读:17 留言:0更新日期:2024-07-27 00:03
本发明专利技术公开了一种基于对比学习的自动驾驶鲁棒控制方法及系统,通过深度对比学习,有效利用未标注的大量样本数据,提高模型对异构分布的适应能力和鲁棒性;同时,引入连续控制网络为模型提供了处理高维、连续动态环境的能力,增强了预测的精度和泛化能力。本发明专利技术不仅提高了在复杂交通环境中的轨迹预测性能,还通过自监督学习机制,减少了对大量标注数据的依赖,为自动驾驶系统提供了一个更为精确、鲁棒的轨迹预测解决方案。

【技术实现步骤摘要】

本专利技术涉及自动驾驶,具体涉及一种基于对比学习的自动驾驶鲁棒控制方法及系统


技术介绍

1、在自动驾驶系统的发展过程中,精确预测交通参与者的轨迹一直是一个核心挑战。

2、深度神经网络(dnn)作为一种强大的学习工具,被广泛应用于从丰富的数据中学习复杂的模式。然而,dnn方法主要受限于数据稀缺的问题,即在数据量不足或质量不高的情况下,模型的学习效果和泛化能力会大大降低。此外,dnn方法往往需要大量标注数据进行训练,这在自动驾驶的任务中尤其成问题,因为获取高质量、标注准确的驾驶轨迹数据成本高昂,且时间消耗大。

3、逆强化学习(irl)通过观察专家的行为来推断出背后的奖励函数,从而学习决策过程。irl方法能够从根本上理解行为背后的意图,适合用于模拟复杂的决策过程。然而,irl面临的主要挑战是局部性和有限的鲁棒性,这意味着学习到的策略很难适应新的或未见过的场景。此外,传统irl方法在处理高维数据和多模态行为时效果不佳,因为它们往往依赖于线性奖励函数或简化的模型假设,难以捕捉现实世界驾驶场景的复杂性。


<p>技术实现思本文档来自技高网...

【技术保护点】

1.一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,包括如下步骤:

2.根据权利要求1所述的一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,所述对比轨迹集合包括正向轨迹集合和负向轨迹集合;

3.根据权利要求1所述的一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,采用scIRL算法对每个候选者对应的对比轨迹集合进行计算包括:

4.根据权利要求3所述的一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,所述scIRL损失函数包括IRL损失项和扩展损失项,所述scIRL损失函数的表达式如下:

5.根据权利要求1所述的一种基于对比学习的...

【技术特征摘要】

1.一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,包括如下步骤:

2.根据权利要求1所述的一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,所述对比轨迹集合包括正向轨迹集合和负向轨迹集合;

3.根据权利要求1所述的一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,采用scirl算法对每个候选者对应的对比轨迹集合进行计算包括:

4.根据权利要求3所述的一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,所述scirl损失函数包括irl损失项和扩展损失项,所述scirl损失函数的表达式如下:

5.根据权利要求1所述的一种基于对比学习的自动驾驶鲁棒控制方法,其特征在于,所述连续鲁棒控制网络包括用于输入静态地图几何的第一网络输入流、用于输入车辆空间状态映射的第二网络输入流和用于输入车辆运动学状态映射的第三网络输入流;

6.根据权利...

【专利技术属性】
技术研发人员:陈兆润汪司越
申请(专利权)人:希迪智驾成都科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1