AI 幻觉:难以解决的 3%问题阻碍 AI 发展
AI 幻觉:难以解决的 3%问题阻碍 AI 发展
2024年12月8日修改
在 AI 技术迅速发展的当下,一个不容忽视的问题逐渐浮出水面——AI 幻觉。这一问题正成为 AI 发展道路上的一大阻碍,其影响范围广泛,从日常的信息交流到重要的商业决策都可能受到波及。
AI 幻觉是指大型语言模型在处理用户提交的查询时,会产生一些不存在或不准确的输出。这种现象虽然不常见,但却时有发生,其出现的频率在 3%到 10%之间。例如,当 Dagnachew Birru 向 ChatGPT 提出一个关于甘地如何使用谷歌 G Suite 组织抵抗英国暴力的荒谬问题时,ChatGPT 竟然给出了详细但完全错误的回答。类似的情况也发生在 Andrew Norris 身上,他发现 ChatGPT 在比较大丹犬和 Mini Cooper 汽车的大小时出现了理解错误。
AI 幻觉的表现形式多种多样,包括泄露训练数据、表现出偏见、受到提示注入的影响等。在极端情况下,模型甚至会完全失控,如微软的 Sydney 聊天机器人曾出现异常行为。这种不可预测性使得 AI 幻觉问题更加棘手,让许多花费大量时间进行提示工程以确保模型运行可预测性的客户感到沮丧。因为即使经过了充分的测试,模型在投入生产后仍可能出现幻觉。
AI 幻觉的风险已经成为其广泛应用的主要障碍之一,特别是在面向客户的场景中。许多公司虽然内部开发了一些聊天机器人,但由于对其输出的不信任,往往无法将其投入实际生产或在使用过程中遇到困难。例如,国际快递服务 DPD 的客服聊天机器人曾因软件更新出现不当行为,给公司带来了尴尬。此外,AI 幻觉还可能导致法律责任,如一家律师事务所因提交包含 ChatGPT 编造的不存在的案例先例和引语的法律简报而受到制裁。
AI 幻觉的产生原因通常可以归结为训练数据的问题。大型语言模型通常是在从数十亿个网页中收集的数据上进行训练的,这就增加了噪声、错误和不一致性混入的可能性。此外,如果训练算法无意中产生了偏差,或者用户的提示不清晰或相互矛盾,也可能导致幻觉的出现。另外,当模型在非常有限或特定的数据集上进行训练,然后被迫根据其训练领域之外的知识产生响应时,就会出现过拟合的情况。
尽管识别 AI 幻觉并非易事,但还是有一些方法可以进行检查。最简单的方法是通过直觉判断,如果答案看起来或感觉不对劲,就需要在其他地方进行核实。另一种基本的诊断工具是再次提出相同的问题,如果回答不一致,就有理由怀疑其准确性。此外,将相同的提示提交给其他语言模型,如谷歌的 Bard、Anthropic 的 Claude 或 Perplexity AI 的 Perplexity,并比较结果,也可以帮助判断是否存在幻觉。有时候,模型甚至会自己承认出现了幻觉。
为了降低 AI 幻觉的风险,有多种方法可以尝试。一种是使用经过审查和批准的已知训练数据域对模型进行微调。例如,谷歌推出了医疗保健专用模型 MedLM,C3 AI 也宣布计划发布 28 个特定领域的生成式 AI 模型。另一种方法是采用提示工程,通过精心设计提示来获得最有用和准确的响应。此外,检索自动化生成作为一种防止不准确和幻觉响应的保护措施,正迅速受到青睐。知识图谱的应用也可以帮助降低风险,它可以为生成式 AI 系统提供上下文理解,从而优化结果。
然而,尽管有这些解决方案,LLM 制造商在很大程度上仍然避免直接处理这个问题。专家们表示,期望 LLM 开发者解决这个问题是不现实的,几乎每一个解决方案都需要人类的参与。AI 幻觉提醒我们,在 AI 开发和应用中,人类的监督是至关重要的。这一技术虽然先进,但仍然容易出现最基本的错误,我们需要在利用其优势的同时,谨慎对待并努力解决其存在的问题。