摘要

人工智能能够在独立于人类干预的情况下自主做出决定,由此对现行以人类行为和决定为中心构建的责任制度提出了挑战。对于人工智能引发的事故,需要区分主要目的是为了给人类提供便利的人工智能与主要目的是为了提升人类工作表现的人工智能,人类仅对后者承担监督职责。如果监督人对于损害的发生没有过错,其他与人工智能交互的人也不是损害发生的原因,同时人工智能产品也不存在缺陷,那么赋予人工智能法律人格,让其为自己的侵权行为承担责任是最好的选择。通过建立保险或储备金制度,让人工智能对自己的侵权行为承担赔偿责任,能够更加准确地反映事故发生的真实原因,同时有助于鼓励制造商革新人工智能技术、保护消费者和充分及时地救济受害人。

  • 单位
    西南政法大学