摘要
特征选择是重要的数据预处理技术,通过特征选择能够显著提升机器学习算法的性能。稳定性是特征选择研究的重要内容,它是指特征选择方法能够在微小扰动的训练数据上选出相同或相似的特征子集。通过提升特征选择方法的稳定性,能够发掘相关特征,提高领域专家对结果的置信度,降低数据存储开销,进一步提升学习算法的性能。将特征选择稳定性提升方法分为扰动法、特征法,扰动法包括数据扰动法、函数扰动法和混合法,特征法包括组特征法和特征信息法。本文给出了每种方法的含义,回顾了近年来的代表性方法,总结了每种方法的优缺点,指出了未来的研究方向。