摘要
生成式人工智能生成的内容会给国家安全、公共安全和私人权益带来风险。中国现有的规制在人工智能生成内容披露、内容责任主体以及投诉机制方面尚存在不足,可以从以下方面进行完善:披露方面应明确显性披露和隐性披露两套体系,服务提供者承担隐性披露义务,使用者承担显性披露义务;内容责任主体方面,不应简单地将服务提供者定性为内容提供者,应探索适应生成式人工智能特点的安全港机制,并且该机制应与使用者的内容责任兼容;投诉机制方面,要求服务提供者就用户投诉内容采取针对性阻止措施并不合理,可以考虑两套方案进行改进,一是将投诉与针对性阻止措施脱钩,二是大幅度提高就投诉采取针对性阻止措施的门槛。基于此,在制定政策时,应考虑产业的国际竞争力问题,采取对风险本身进行分类的规制路径,从而实现促进产业健康发展和防范风险的双重目标。