当前位置: 首页 > 专利查询>同济大学专利>正文

一种可解释的自动驾驶决策系统及其方法技术方案

技术编号:36706213 阅读:94 留言:0更新日期:2023-03-01 09:28
本发明专利技术涉及一种可解释的自动驾驶决策系统及其方法,该系统包括自动驾驶决策模块和DeepSHAP模块,该方法包括:根据驾驶场景,确定自动驾驶决策模块的决策向量以及状态向量,并构建深度Q网络模型;从交通环境中提取出关键特征向量,输入深度Q网络模型,输出得到对应的决策指令,并传输给车辆控制模块执行、同时车载感知模块输出相应背景数据集;将背景数据集与深度Q网络模型共同作为DeepSHAP模块的输入,由DeepSHAP模块计算出背景数据集中所有特征的Shapley value,并传输至车载人机交互单元进行展示。与现有技术相比,本发明专利技术能够从局部解释、全局解释和特征依赖分析三个方面向用户直观解释自动驾驶决策的输入与输出映射关系,提高用户对自动驾驶决策的理解与信任。提高用户对自动驾驶决策的理解与信任。提高用户对自动驾驶决策的理解与信任。

【技术实现步骤摘要】
一种可解释的自动驾驶决策系统及其方法


[0001]本专利技术涉及自动驾驶
,尤其是涉及一种可解释的自动驾驶决策系统及其方法。

技术介绍

[0002]高度自动化驾驶被认为是未来智能出行的趋势,因为它可以减少人力和成本,提高安全性和可靠性,减少排放和能源消耗。目前,自动驾驶汽车中的大多数决策系统都使用预先设计好的、人工输入密集的、高度模块化的基于规则/模型的算法。
[0003]然而,在现实环境中,基于规则/模型的框架很难将人类启发式策略推广到无穷无尽的新场景和任务中,导致这种决策方式受到极大限制;另一方面,结合了强化学习和深度学习的深度强化学习已经成为最近人工智能领域的热点,并在自动驾驶汽车方面展现出惊人的潜力,如深度强化学习已成功地训练智能赛车,使其比人类顶级赛车手驾驶的更好,或训练智能环境,加速测试和评估过程。尽管深度强化学习技术在自动驾驶应用方面取得了突破性的进展,但基于深度强化学习的自动驾驶决策技术能否在现实世界中成功部署,很大程度上还是取决于用户的接受度和信任度。由于深度强化学习中使用的神经网络具有黑匣子性质,使得社会公众对本文档来自技高网...

【技术保护点】

【技术特征摘要】
其中,γ∈(0,1)表示折扣因子,r为奖励函数,r1表示碰撞惩罚,w1为r1对应的权重,r2表示换道惩罚,w2为r2对应的权重。6.根据权利要求3所述的一种可解释的自动驾驶决策方法,其特征在于,所述步骤S2中关键特征向量包括自车所在车道、周车所在车道、自车与周车之间的距离。7.根据权利要求3所述的一种可解释的自动驾驶决策方法,其特征在于,所述步骤S2的具体过程为:根据车载感知模块采集的当前状态数据,从环境中提取出关键的特征向量,通过贪婪策略选取出使得Q函数最大的决策,以作为自动驾驶车辆的当前决策,进而将决策量传递给车辆控制模块执行。8.根据权利要求3所述的一种可解释的自动驾驶决策方法,其特征在于,所述步骤S4中DeepSHAP模块的工作过程为:给定一个参考特征向量r,一个被解释特征向量x和对应模型v(
·
),得到:Δy=v(x)

v(r)Δx
i
=x
i

r
i
其中,x
i
表示第i个特征,r
i
表示第i个参考特征;采用一个L层的前馈神经...

【专利技术属性】
技术研发人员:陈虹崔志浩李蒙黄岩军王宇雷
申请(专利权)人:同济大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1