摘要
针对动态环境的机器人路径规划,人工势场法(APF)易陷入局部最小陷阱;强化学习深度双重Q网络(DDQN)算法存在盲目探索过多、收敛较慢和规划路径不平滑的问题,本文提出一种基于人工势场法和改进DDQN的动态环境机器人路径规划算法(PF-IDDQN).首先,将人工势场法引入改进DDQN以获取初始全局环境信息,并对奖励模块进行优化;其次,在算法状态集中增加4个方向因素,以提高规划路径的平滑度;最后,进行了动态环境下的训练仿真.结果表明,机器人在动态环境中可以在有限探索次数内到达目标位置,验证了本文算法的有效性.
- 单位