摘要
随着人工智能的广泛应用,如何让未来具有高度自主性的智能机器作出伦理推理和道德决策,成为机器伦理研究中亟待解决的难题之一。智能道德机器创造中必须深入探讨智能机器成为道德能动者的前提与可能。人工智能、机器人领域的研究人员和程序员等非伦理学家面临着诸如道德哲学知识缺失可能导致智能道德机器伦理假设偏误,伦理理论多元加大了伦理共识达成的难度,"电车难题"造成伦理决策困境,人工智能的法律应用存在机器偏见,伦理方法论的多元性造成正当性辩护与道德行为选择困难等更为突出的伦理困境。破解这些伦理困境,对创造智能化、人性化的道德机器是非常必要的。有效破解这些伦理困境,需要实现道德哲学与人工智能的融合发展,需要重新审度伦理自身的合理性,在多元价值中达成伦理共识,最终构建面向智能机器本身的可执行伦理机制。
- 单位