摘要

将人工情感作为社交机器人的典型特征之一已经成为学界共识,由于人工情感的不真实性和人类情感的真实性之间的失衡性关系,引发了一系列伦理风险问题,其中主要体现于社交机器人对人类同理心的"操控性"和其"欺骗性"。人类需要从法律、伦理监管,社交机器人的优化设计,以及人类对自身的道德、价值观念的调整等方面着手才能有效地应对相关伦理风险。