摘要

近些年来,支撑向量回归方法在减少泛化误差方面表现出了出色的性能。然而,传统的支撑向量机或者支撑向量回归方法是基于单个核函数的,在高维空间中解决非线性问题。但随着应用领域不断扩展,在一些复杂情形下,由单个核函数构成的支撑向量回归方法并不能满足数据异构、输入空间维度过高等实际问题。针对此问题,人们在单核学习的基础上提出了多核学习,即将多个核函数进行线性组合,以此来提高模型精度,并逐渐成为当下机器学习领域研究的热点。文章综述了支撑向量回归算法与多核学习算法理论知识,并分析了各自的特点以及应用领域。总结了多核支撑向量回归方法下一步的研究趋势。