摘要
为了缓解车联网中个体车辆计算资源配置过低而导致的任务处理时延较大的问题,提出了一种移动边缘计算(Mobile Edge Computing, MEC)架构下的动态任务卸载策略和资源分配方案。以最小化全网任务处理时延为目标,将车联网中的任务卸载和资源分配问题建模为马尔可夫决策过程(Markov Decision Process, MDP),并利用深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG)算法进行了问题求解。仿真结果表明,与执行者-评价者(Actor-Critic, AC)和深度Q网络(Deep Q-network, DQN)两种算法相比,DDPG算法以最快的算法收敛特性获得最小的全网任务处理时延。
- 单位