摘要

机器学习系统日益普及,应用也在不断扩大,加速了向算法化的智能社会转变,这意味着基于算法的决策可能会产生重大的社会影响。新的法规以及高度规范的领域,已经强制要求对决策进行审计和验证,这增加了对机器学习结果的质疑、理解和可解释性的系统能力的需求。对于机器学习系统来说,算法的透明性是不可或缺的。本文对可解释性的研究现状进行综述,了解可解释性的发展以及面临的动机和挑战,包括可解释性及其要求和高风险决策。介绍了机器学习中可解释性的重要性,现有的可解释性评估方法,包括可解释性的评估指标和模型,及可解释性的发展趋势和展望。