摘要
以ChatGPT为代表的生成式人工智能引发的虚假有害信息风险极为复杂,涵盖“积极生成型”“消极生成型”和“人为操纵型”等多种情形。依靠其独特复杂的内外部因素,生成式人工智能打破了学术界与实务界迄今关于搜索引擎算法“不能、不想、不愿”生成虚假有害信息的所有立场分歧与理论认知,更是在法律定位、归责认定上对现行网络虚假有害信息相关法律规制发起了挑战。有鉴于生成式人工智能的类通用属性,对其规范应当超出一般算法的规制框架,以人工智能基础性立法为基底建构特定的算法诽谤规制路径。一要坚持层级治理的规制逻辑,建立多元主体协同共管机制、设立涵盖多责任主体的内容监管机制、创建具有高拓展性的风险监测机制;二要在“刺破人工智能面纱”原则的基础上,探索生成式人工智能为责任主体的新型诽谤救济规则,包括探寻以“AI价值链”为导向的归责方法,以及适用于过渡期的暂代型诽谤救济模式。
- 单位