基于强化学习的数据驱动最优镇定控制及仿真

作者:陆超伦; 李永强; 冯远静*
来源:模式识别与人工智能, 2019, 32(04): 345-352.
DOI:10.16451/j.cnki.issn1003-6059.201904007

摘要

利用Q-学习算法,针对模型未知只有数据可用的非线性被控对象,解决最优镇定控制问题.由于状态空间和控制空间的连续性,Q-学习只能以近似的方式实现.因此,文中提出的近似Q-学习算法只能获得一个次优控制器.尽管求得的控制器只是次优,但是仿真研究表明,对于强非线性被控对象,相比线性二次型调节器和深度确定性梯度下降方法,文中方法的闭环吸引域更宽广,实际指标函数也更小.

全文