摘要

本发明公开了一种基于大规模机器学习的方差约减优化方法,主要解决现有技术中随机优化迭代过程中方差过大导致不收敛到最优值,且收敛速度不够快的问题,其技术方案包括:1)设定起始点并确定迭代次数;2)将初始点赋值给内循环作为起点,并进行全梯度计算;3)大样本中随机选取样本进行控制变量操作;4)在内循环的迭代过程中采用临近点算子来加速。本发明确保了函数在光滑和强凸条件下达到加速性质的线性收敛效果,实现快速、精确求解最优值,且主要的内循环迭代过程不需要求梯度,适用于大规模机器学习的应用场景。