摘要
随着人工智能技术的快速发展应用,人工智能生成内容(artificial intelligence generated context, AIGC)的出现极大地解放了生产力,以ChatGPT为代表的产品风靡全球,其多样化的应用场景催动商业化迅猛发展.以人工智能数据伪造风险为研究目标,将GPT模型作为研究对象,通过分析其已经暴露或出现的安全隐患,重点研究数据伪造可能出现的原因及其实现过程.结合传统网络空间安全、数据安全攻防对抗方法,对基于模型微调导致数据伪造的实践进行了研究,推测人工智能广泛商业化后部分数据伪造利用场景.最后提出应对数据伪造风险的方法和建议,为将来人工智能大规模应用前规避数据伪造风险提供参考.