摘要

<正>人工智能系统是用一种或多种人工智能技术和方法开发的软件,针对人类界定的特定一系列目标,可以生成影响其交互环境的内容、预测、建议或决策等输出。[1]伦理风险是指在人与人、人与社会、人与自然、人与自身的伦理关系方面,由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应。[2]在技术、数据、应用和社会层面,都可能引发人工智能伦理风险:技术层面涉及算法及系统安全问题、可解释性问题、算法歧视问题和算法决策问题;数据层面涉及人工智能治理过程中,数据采集、