摘要
随着人工智能技术的快速发展,以深度学习为代表的复杂人工智能模型开始被逐步应用于各类智能教学系统和平台。然而,这类复杂人工智能模型通常需要从海量数据中学习隐含特征与规律,导致其决策过程的不透明性,通常难以向用户提供清晰且易理解的解释,进而容易引起用户的不信任,也可能带来不易察觉的错误隐患。该研究首先介绍了当前可解释人工智能技术及其基本方法,并以学习者模型的解释作为教育领域的典型案例。在此基础上,研究梳理和提出了可解释人工智能在微观、中观和宏观三个层面的教育应用模式,即检验教育模型、辅助理解系统与支持教育决策。最后,该研究对可解释人工智能在教育中的应用提出了具体建议和展望。
- 单位