摘要

针对大语言模型(LLM)技术的快速发展,剖析其技术应用前景及风险挑战,对通用人工智能(AGI)的发展和治理有重要参考价值。首先,以BERT(Bidirectional Encoder Representations from Transformers)、GPT(Generative Pre-trained Transformer)和ChatGPT(Chat Generative Pre-Trained Transformer)等语言模型为代表,综述大语言模型的发展脉络、大语言模型的核心技术和评估体系;然后,分析大语言模型现存的技术局限和安全风险;最后,提出大语言模型在技术上改进、政策上跟进的建议。分析指出作为发展阶段的大语言模型,现有模型存在非真实性及偏见性输出、实时自主学习能力上尚有欠缺,算力需求庞大,对数据质量和数量依赖性强,语言风格单一;存在数据隐私、信息安全、伦理等方面的安全风险。未来发展可从技术上继续改进,从“大规模”转向“轻量化”、从“单模态”走向“多模态”、从“通用”迈入“垂类”;从政策上实时跟进,实施有针对性的监管措施,规范其应用和发展。