摘要

随着人工智能与教育的深度融合,人工智能伦理问题受到广泛关注,科技向善成为人工智能技术应用的基本原则。教育领域人工智能应用的伦理研究,多以现象剖析和愿景构建为主,系统的政策分析十分缺乏。鉴于此,本研究以分析国际组织或各国政府公布的十三份人工智能伦理规范政策文本为起点,通过挖掘教育人工智能伦理规范相关内容,结合人工智能伦理从缘起到教育应用的顺序,探索教育人工智能伦理问题的解决路径,构建教育人工智能伦理规范的十二条核心原则,包括:公平、以人为本、隐私安全、透明和可解释性、问责、评估形式、管理与工作量、知情参与和合作、自治和预警、福祉、伦理设计和实现教育目标,强调应用原则需要从科技向善转向人的向善。本研究还从设计开发者、教育工作者、受教育者、管理者与其他利益相关者等角度阐释原则的应用要求。十二条核心原则对编制教育人工智能开发与应用的基本指南具有重要意义,可促进人工智能技术教育的理性应用,提高教育治理现代化水平。

全文