摘要

GNSS电离层层析技术在电离层探测中扮演着重要角色,然而,由于观测数据不足或分布不均,导致层析模型中固有的不适定性问题成为制约该技术推广应用的主要瓶颈,其主要表现在无信号射线像素的反演电子密度对初值比较依赖,而初值通常是由精度不高的经验模型给出,从而拉低了电离层层析的整体精度.针对该问题,本文提出了一种基于机器学习集成算法(XGBoost)的电离层层析新方法(XGB-CIT),即基于传统层析算法,利用多个连续时段中有信号射线像素的特征及其电子密度反演值对机器学习模型进行训练,然后预测后续时段中所有像素的电子密度,并以此作为电离层层析的迭代初值,实现对电离层层析算法迭代初值的精化以及层析精度和效率的提升.利用湖南省连续两天共46个时段的CORS观测数据进行层析反演,并以23个连续时段为滑动窗口构建机器学习模型进行初值预测,并在此基础上利用正演误差和电离层测高仪数据对XGB-CIT的精度和适用性进行检验.其结果表明:相较于IRI2016模型,XGBoost算法提供的迭代初值精度提高了68%,而基于该初值得到的XGB-CIT模型,其精度和效率也比传统层析方法有所提高,其中收敛速度提高了20%,同时根据与测高仪数据的对比分析可知,XGB-CIT对无信号射线像素的电子密度反演结果与实测数据更加吻合.