摘要

人工智能社会实验以社会实验的科学方式观测人工智能技术的综合社会影响,意在对其风险进行前瞻性评估,提前寻求应对策略,促进智能技术的良性发展。人工智能社会实验无疑会对实验场域中的参与人员和社会环境造成深刻的伦理影响,因而亟需建构一套切合实际、行之有效的伦理规范体系。当前研究虽有对于伦理风险和伦理原则的探讨,但仍缺乏有关如何在具体实践中定位伦理风险、落实伦理原则并确定伦理责任的精确阐释。人工智能社会实验的实验路径为其伦理规范体系的确立提供了基本框架。基于实验开展的七个阶段,结合人工智能伦理和社会实验伦理的研究成果:1)分析整合实验各阶段面临的伦理风险,结合应用场景与技术特征进行深化;2)梳理提炼普适的伦理原则,将其规范要求细化至实验各个阶段;3)针对实验开展需要,确定不同参与主体在各阶段的职能作用,据此落实主体间的伦理责任。由此形成对人工智能社会实验伦理研究的基本认识,建构起既表达普遍价值共识,又具备实践可操作性的人工智能社会实验伦理规范体系。