摘要
基于稀疏表示的阵列测向技术中的一系列高精度鲁棒性方法都基于网格假设,即假设入射信号来向无误差地落在网格上,这一假设与现实中信号来向落在连续角度域内相违背,所造成的网格偏差效应会带来模型失配,从而导致估计性能的恶化。针对这一问题,本文提出了一种基于泰勒展开的离格类信号模型,该模型允许信号来向偏离网格,从而消除了网格误差效应,减小了估计误差。同时采用一种交替迭代优化的方法对模型进行求解,并利用奇异值分解等方法降低计算量。该方法能够有效减小网格误差,提高估计精度。仿真结果验证了所提方法的有效性。
-
单位国网电力科学研究院有限公司