摘要

当前,全球范围内生成式人工智能技术和服务进入爆炸式增长阶段,其在为社会经济带来技术进步和生产力增进的同时,也引发各种法律风险、科技伦理风险及社会治理风险。对于人工智能的发展,欧盟采取严格的法治监管态度,通过统一规则和监管机构统筹构建人工智能规范事宜;美国则采取原则性和倡导性的监管策略,在尊重企业自主权的同时,明确企业合规的要求;英国仅明确原则而不做强制要求,采取原则性的折衷监管方式。比较域外经验,立足我国参与人工智能国际竞争的现实需求,对生成式人工智能的法治考量应根据技术与法律的交互、发展与安全的平衡,在法治架构中为人工智能规范发展设置安全性、可靠性、可控性要求。为此,需加强相关政策与制度的供给,尽快建立多元长效监管机制,设立规范统一的责任规则,以此建立全周期、系统性、立体化的法治实践架构,在恪守安全底线之上,大力促进生成式人工智能规范发展。