摘要

<正>我们在使用像ChatGPT这样的大语言模型(LLM)时会发现,其给出的各种回答未必就是真实的,即此类AI模型会“虚构事实”,对于准确性要求较高的信息,最好通过其他可信的来源进行验证。此外,由于其运行的“黑箱”性,普通用户往往无法判断自己输入的什么内容导致LLM给出了特定的回答,