摘要

人工智能决策的性能在某些特定领域超过了人类能力,中国、美国等多国都颁布了人工智能发展战略和行动规划,期望人工智能在多个领域得到落地应用.但在人工智能决策过程中,存在着固有算法黑盒和系统信息不透明的问题,导致其结果正确但不可理解,阻碍了人工智能的进一步发展.为了人工智能的商用和普及,对智能决策可解释性的需求越来越迫切,需要将黑盒决策转化为透明过程,建立起人与机器之间的信任.本文从系统应用视角和决策收益者视角出发,重点对人工智能决策可解释性的基本概念、模型解释方法、高风险决策应用解释和解释方法评估等四个方面的国内外相关研究进行综述,并展望了未来研究发展趋势.