信任人工智能何以可能?

作者:包傲日格乐; 曾毅
来源:自然辩证法研究, 2023, 39(02): 67-73.
DOI:10.19484/j.cnki.1000-8934.2023.02.020

摘要

信任是脆弱的委托人面对风险,与受托人达成共同期望的过程。值得信任意味着人工智能需要有能力被信任。但现有人工智能信任说明皆存在困难:由于目前的人工智能仅是一个工具,外表伦理的信任路径面临责任逃脱;理性、情感与规范信任路径无法承担人工智能作为受托人的期望;责任网络化路径试图通过集体责任逃避人工智能信任问题。人工智能信任有待从非工具性、非依赖性的理性社会规范意义上,满足意向、能力、善意、心理积极、预期期望接受、脆弱性风险等需要,从信任语境的规范理解以及信任过程的无监督出发,寻求信任关系的建构。

全文