摘要
从偏差-方差分解和误差-分歧分解角度,发现集成学习中的基分类器多样性是提升集成学习泛化能力和分类精度的重要途径,在数据样本中通过最大化最小margin的方法能够有效提升集成学习多样性。针对Bagging算法,提出一种基于最大化最小margin的优化集成学习算法。通过优化抽样方法实现最大化最小margin,将该问题简化为基分类器权重调整问题;通过给正确分类易错数据样本的基分类器赋予更高权重来实现在集成学习抽样中该类数据样本的margin值最大化。实验结果表明,该算法对比常用集成学习方法在大部分数据集上具有更高的执行效率和泛化精度。
- 单位