摘要

近年来,卷积神经网络(convolutional neural network,CNN)作为一种典型的深度神经网络模型,在图像识别、目标检测和语义分割等计算机视觉领域中取得了令人瞩目的成效.然而,CNN端到端的学习模式使其隐藏层的逻辑关系以及模型决策结果难以被解释,这限制了其推广应用.因此,研究可解释的CNN具有重要意义和应用价值.为了使CNN的分类器具有可解释性,近年来涌现出了很多在CNN架构中引入基础概念作为插入式成分的研究.事后概念激活向量方法以基础概念为表现形式,用于分析预训练的模型,但依赖独立于原始模型的额外的分类器,解释结果可能并不符合原始模型逻辑.另外,现有的一些基于概念的事前可解释方法对于CNN潜在分类空间中的概念处理太过绝对.引入图卷积网络模块,设计了一种类内概念图编码器(within-class concepts graphs encoder, CGE)学习类内基础概念及其潜在交互.在CGE基础上,设计实现不同依赖关系的基础概念不同程度解纠缠的正则化项,提出了潜在空间自适应解纠缠的可解释CNN分类器(adaptive disentangled interpretable CNN classifier, ADIC).将ADIC嵌入ResNet-18和ResNet-50架构,在Mini-ImageNet和Places365数据集上的分类实验和可解释图像识别实验结果表明,ADIC在保证基准模型具有自解释能力的前提下,可以进一步提高基准模型的精度.