摘要

如何让人工智能做出令人满意的道德决策?这既是一个机器伦理问题,实质上也是一个元伦理学问题,对它的解答可以实现二者的双向启蒙,最终帮助我们理解道德的本性。机器伦理中存在自上而下和自下而上两种主要建造道德能动者的方案,二者分别体现了元伦理学中的理智主义和反理智主义,前者将道德知识视为显性的事实和规则,将道德决策视为遵守规则的过程,后者则更多地将道德知识视为一种技能知识,将道德决策视为复杂情境中的熟练应对。基于对两种方案实例的讨论,可以看出自上而下方案面临着框架问题和常识问题的困扰,存在着不可克服的先天限制,因而模拟人类道德是不可能的;自下而上方案虽然不存在先天限制,可以生成内禀的道德规范性,但仍面临技术上的工程限制和安全上的规范限制,因而模拟人类道德是困难的和不可欲的。这在元伦理学层面提供了一种理论判决,即反理智主义比理智主义更为准确地把握了人类道德的本性,我们不能仅仅依靠遵守规则而成为道德大师,相反,只有依赖漫长的学习和实践才能达致道德成熟。

全文