摘要

以GPT3/4为代表的大型语言模型被业界宣传为“基础性的”,是人工智能领域科学进步的主要转折点。这类叙述忽略了大规模的人工智能模型主要由大科技公司控制,因为它们需要巨大的计算和数据资源,并且还引发了围绕错误信息和歧视、隐私和安全漏洞以及负面环境影响等多方面的担忧。同时,无论大型语言模型及其训练数据集变得多么庞大,它们永远无法像人类一样学习和理解我们的语言。在此情况下,本文分析了大型语言模型的四大发展趋势,并指出,为了充分了解其范围和力量,探索大型语言模型如何影响社会的不同方面非常重要。特别是,大型语言模型将带来人类交流的困境,我们需要传播理论和基于伦理的传播实践的更新,来确定下一代传播研究的面貌。