摘要

近年来,基于大规模标记数据集的深度神经网络模型在图像领域展现出优秀的性能,但是大量标记数据昂贵且难以收集。为了更好地利用无标记数据,提出了一种半监督学习方法 Wasserstein consistency training(WCT),通过引入Jensen-Shannon散度来模拟协同训练并组织大量未标记数据来提高协同训练效率,通过快速梯度符号攻击施加的对抗攻击来生成对抗样本以鼓励视图的差异,将Wasserstein距离作为网络差异约束的度量,以防止深度神经网络崩溃,使网络在低维流形空间上平滑输出。实验结果表明,所提方法在MNIST分类错误率为0.85%,在仅使用4 000个标记数据的CIFAR-10数据集上错误率达到11.96%,证明了所提方法在小样本条件下的半监督图像分类中具有较好的性能。