摘要

像OpenAI的ChatGPT这样的聊天机器人依靠一种叫作“大型语言模型”的人工智能来生成对话,而当人工智能作出似乎并不符合其训练数据的自信反应,人工智能研究界称之为“幻觉”。“幻觉”的命名缘于其与人类心理学中的幻觉现象相类似,但其实,用同样来自心理学的术语“虚构症”加以描述更为准确。当人的记忆出现空白,大脑会令人信服地填补其余部分,而语言模型也同样擅长编造与现实无关的事实,使人难以分辨真实的陈述与错误的陈述。更加致命的是“伊莱扎效应”,将人类水平的智力和理解力归于人工智能系统,它可能带来不可忽视的负面影响,迫使今天的每个人都努力找到确保能以负责任和合乎伦理的方式使用人工智能的方法。