摘要
大语言模型是发展人工智能生成内容(AIGC)最为关键的技术之一。它在推动AIGC发展的同时,也会带来生成违法和不良信息的风险。大语言模型生成违法和不良信息的原因较为复杂,造成的风险程度更为严重,因而给网络信息内容的法律治理带来挑战。为此,中国在立法上细化相关主体在网络信息内容生成过程中的义务,新增对人工智能生成内容进行标识的义务,但相关规则仍存在着继续完善的空间。未来,中国应进一步明确人工智能生成内容致害的侵权责任规则,确定侵权责任的主体和归责原则,基于现行法构造合理的解释论;合理界定网络信息内容服务平台对内容的注意义务,将AIGC技术发展和产业状况纳入考量因素;完善对人工智能生成内容进行标识的要求,区分场景规定不同的标识要求,增加服务使用者和内容传播者的标识义务。
- 单位