摘要

人工智能正在加速教育创新,重塑未来教育新生态。尽管当前教育人工智能在大数据背景下体现出了积极价值,但以深度学习为代表的智能技术存在的黑箱问题,使得智能教育系统的决策结果缺乏透明度和可解释性。因此,智能教育的有效性因缺乏解释能力和因果机制而受到限制和质疑。可解释教育人工智能(XAI)通过有意义的交互,为使用者提供智能系统做出决策的缘由与解释,使教育系统可理解、可信任、可管理。在系统框架上,构建包括教育需求分析、教育数据与特征解释、教育模型解释、可解释界面等模块的可解释教育系统模型,旨在应用价值层面上探索可解释人工智能对因果推断教育研究的新路径,分析其对深层次知识发现的推进机制,构建助力教育人工智能治理的框架。并且在教育实践中的案例表明,可解释教育人工智能在智能导师系统、学习推荐系统、学习分析系统中的应用,验证了其能够有效提升教与学的效果。未来对可解释人工智能的研究,可从赋能决策支持、融合知识图谱、评估解释方法、加强跨学科合作、编制指南规范等维度,加以实施和完善。

  • 单位
    上海外国语大学