摘要

生成式人工智能的技术样态及其社会应用,带来了信息安全、数据安全和算法安全等风险,亟需提出可行的监管方法。世界主要国家和地区为遏制生成式人工智能的现实风险,提出了技术审查、技术禁用和制度建构等监管方法。针对生成式人工智能对责任分配、真实性鉴别和立法体系等提出的挑战,应从一体多元的路径出发,通过分析生成式人工智能安全风险以及各国的监管实践,探讨未来监管趋势,为我国监管措施提供必要的思路和参考。