摘要
近年来,在世界范围内涌现出大量的人工智能治理原则。这些文件通常采取“原则主义”的策略,通过提取“最大公约数”的方法对伦理共识进行清单化的列举。这种策略固然有益于回避争议、促进协同,但也难免在具体情境中陷入概念模糊和自相矛盾。为了明晰概念、澄清语境、促进对话,本文搜集了来自全球各地的88份原则文本,在伦理学理论脉络中定位人工智能治理核心议题和相关主张。研究发现治理原则围绕着价值立场、价值目标和正义原则三个核心问题展开,在不同的理论脉络和现实情境中,构成了一个丰富而系统的问题域。推动人工智能的治理实践,需要在静态的对话框架之上进一步构建动态的规制措施,而整合原则文本的伦理基础和治理框架,有助于推动抽象的伦理主张转变为具体的治理实践,以应对复杂现实情境中的道德选择和行动需求。
- 单位