摘要

异构网络已经成为5G(5th Generation)的重要组网方式,其通过在宏基站覆盖范围内部署多种类型的小型基站,缩短终端设备与基站间的距离,可有效提高频谱利用率和网络容量。为了研究基于深度强化学习(Deep Reinforcement Learning,DRL)的异构网络模型的性能,同时在最小化系统能耗并满足不同类型终端用户的服务质量(Quality of Service,QoS)要求的基础上,制定合理的资源分配方案,提出了一种基于DRL的近端策略优化(Proximal Policy Optimization,PPO)算法,并结合一种基于优先级的分配策略,引入了海量机器类型通信(massive Machine Type Communication,mMTC)、增强移动宽带(enhanced Mobile Broadband,eMBB)和超可靠低延迟通信(Ultra-Reliable and Low Latency Communications,URLLC)业务。结果表明,所提算法相较于Greedy和DQN算法,网络延迟分别降低73.19%和47.05%,能耗分别降低9.55%和6.93%,而且可以保证能源消耗和用户延迟之间的良好权衡。

全文