摘要
深度Q网络(Deep Q Network,DQN)模型已被广泛应用于高速公路场景中无人车换道决策,但传统的DQN存在过估计且收敛速度较慢的问题。针对此问题提出了基于改进深度Q网络的无人车换道决策模型。首先将得到的状态值分别输入到两个结构相同而参数更新频率不同的神经网络中,以此来减少经验样本之间的相关性,然后将隐藏层输出的无人车状态信息同时输入到状态价值函数(State Value Function)流和动作优势函数(Action Advantage Function)流中,从而更准确的得到模型中每个动作对应的Q值,再采用优先级经验回放(Prioritized Experience Replay,PER)的方式从经验回放单元中抽取经验样本,增加经验回放单元中重要样本的利用率,最后在NGSIM数据集搭建的实验场景中进行模型的训练和测试。实验结果表明,改进的深度Q网络模型可以使无人车更好的理解环境中的状态变化,提高了换道决策成功率的同时网络的收敛速度也得到提升。
- 单位