摘要

以ChatGPT为代表的生成式人工智能横空出世,普及之迅广,超出了人类技术史上的任何一次科技进步。生成式人工智能的技术跃进引发了人的主体性、公私法益受损和技术风险黑箱识别困难的广泛风险迭代问题。传统规制模式面临政府规制迟滞和资源匮乏、市场自治动力缺失和协调不足的困境。元规制模式倡导框架性法律引导下的企业自我规制,可回应生成式人工智能的风险规制需求。我国应集中针对生成式人工智能在算法模型、庞大的数据集和训练机制方面的风险源头,由政府规制承担掌舵者的风险防控职责,协调人工智能企业、第三方机构和社会公众参与风险治理,构建框架性的软硬法混合规范体系,形成从人工智能企业内部到认证机构、关联企业以及社会公众的风险合规监督机制。

全文