摘要
以人工智能技术创新和应用为主的人工智能产业发展如火如荼,推动了人类生产和生活的智慧化进程。而人工智能系统在实际应用中面临诸多挑战,如基于黑箱的人工智能模型决策不可避免地出现偏差,其决策过程和决策结果难以被理解和信任。因此,人们对理解"黑箱模型"的需求日益迫切,一个全新的研究领域——可解释人工智能逐渐兴起。梳理可解释人工智能的兴起历程,探究其对人工智能发展带来的影响;从理论、方法和应用3个角度出发,系统阐述可解释人工智能的研究现状,特别地,对已有可解释人工智能方法研究进行总结性分析;从管理视角出发,剖析已有可解释人工智能研究在方法和应用层面存在的不足,重点分析可解释人工智能为管理领域带来的挑战;面向管理决策研究提出可解释人工智能未来可行的研究方向。研究结果表明,可解释人工智能已经受到学术界、产业界和政府部门的广泛关注,一系列可解释方法和方案的提出为实现人机良好协同和互动提供了契机。可解释人工智能的核心目标在于提升人工智能模型的准确性、可靠性、因果性、透明性、安全性和公平性等。大多数可解释方法聚焦于提升深度学习模型的可解释性,这些方法普遍局限于事后可解释,且难以兼顾模型准确性和模型可解释性。此外,如何将人工智能系统的应用与可解释人工智能相结合是可解释方法研究亟待解决的问题。从管理视角看,现有可解释方案效率低、成本高,可解释人工智能需要更加友好和普适。结合管理决策,有必要探索可解释人工智能背景下新的管理决策模式,有必要探究基于可解释人工智能实现人机协同共生的决策提升模式。研究结果厘清了可解释人工智能的概念内涵、可解释指标体系和方法论框架,明确了其发展面临的挑战和机遇,为可解释人工智能研究奠定了理论基础,提供了可解释性评价依据、方法借鉴和参考以及管理启示。
-
单位卡耐基梅隆大学; 复旦大学