AI大模型讲师之知识图能降低LLM的幻觉吗?一篇综述

标签:
aigcai讲师计算机视觉讲师人工智能讲师aigc讲师 |
分类: 大数据人工智能 |
11月14日论文"Can Knowledge Graphs Reduce Hallucinations in LLMs? : A Survey",来自ASU。
当代的LLM容易产生幻觉,主要源于模型中的知识差距。为了解决这一关键限制,研究人员采用了多种策略,通过整合外部知识来增强LLM,旨在减少幻觉并提高推理准确性。在这些策略中,利用知识图作为外部信息来源已经显示出有希望的结果。在综述中,对LLM中这些基于知识图的知识增强技术进行了全面的回顾,重点是它们在减轻幻觉方面的功效。系统地将这些方法分为三个组,对其性能进行方法比较和实证评估。最后,本文探讨了与这些技术相关的挑战,并概述了这一新兴领域未来研究的潜在途径。
当代的LLM容易产生幻觉,主要源于模型中的知识差距。为了解决这一关键限制,研究人员采用了多种策略,通过整合外部知识来增强LLM,旨在减少幻觉并提高推理准确性。在这些策略中,利用知识图作为外部信息来源已经显示出有希望的结果。在综述中,对LLM中这些基于知识图的
知识增强
技术进行了全面的回顾,重点是它们在减轻幻觉方面的功效。系统地将这些方法分为三个组,对其性能进行方法比较和实证评估。最后,本文探讨了与这些技术相关的挑战,并概述了这一新兴领域未来研究的潜在途径。
大型语言模型主要有三个失败点:由于缺乏上下文而无法理解问题,知识不足而无法准确回答,或者无法重新调用特定的事实。提高这些模型的认知能力包括完善其推理过程、优化学习机制以及建立验证结果的机制。本文全面回顾了现有的方法,旨在通过这三个过程增强知识图,减轻幻觉并增强大型语言模型的推理能力。其分为知识-觉察推理、知识-觉察学习和知识-觉察验证。如图是该文对知识图增强LLM的方法分类:
利用知识图提供了一种有价值的方法,可以在众多认知任务中提高大语言模型(LLM)的性能。每种方法都有其优点和局限性。
利用知识图提供了一种有价值的方法,可以在众多认知任务中提高大语言模型(LLM)的性能。
每种方法都有其优点和局限性。
模型在推理过程中从知识图或外部数据库中检索信息的检索增强对于实时应用是有效的。它们还允许模型访问最新信息。KAPING(Baek2023)根据提示生成的token是否包括在答案实体中以及从KG检索的三元组在多大程度上有助于答案生成去衡量性能。KAPING显著提高了需要事实知识的任务的准确性。小模型的性能增益甚至更大,这表明增强知识是有益的,而不是增加模型的大小。然而,检索增强方法的性能取决于检索器模块的功效。它们可能无法更有效地处理细微或复杂的查询,因为其仅限于知识图中的信息。
使用“思维链”进行提示推理,向模型提供明确的说明或查询,在推理过程中指导,同时利用知识图中的信息。这种廉价实用的方法可以直接控制模型的焦点,并指导对特定任务的提示进行微调。通过增强在问答任务中使用图推理(RoG,Luo 2023)方法的知识图。
然而,它需要精心制作提示,并且可能需要更好地适应不同或意外的查询。当CoT方法用于解决小模型(~100B参数)上的算术推理任务时,性能不会显著提高。这些模型天生具有较弱的算术能力和相对有限的语义理解,因此无法推广到新任务中。然而,对于大模型上更复杂的问题,如最大的GPT和PALM模型,性能提高了一倍(Wei,2022b)。
另一种增强方法涉及在训练或推理期间使用知识图来生成额外的上下文或信息。它们生成与上下文相关的信息,从而提供了处理各种查询的灵活性。然而,生成质量可能会变化,并且可能容易导致不正确或不相关的信息。
使用预训练或微调的模型训练方法使模型能够通过再训练从知识图数据中结合到模型中的特定知识来学习。这些方法可以提高特定任务的性能,但资源密集且成本高昂。将外部知识战略性地融合到预训练的模型中需要相当大的计算能力、广泛的数据集和细致的微调工作。另一个挑战是微调依赖于数据,因此它是特定于任务的,不容易转移或推广。
使用事实核查的知识验证方法使用知识图验证模型生成信息的准确性,有助于确保生成内容的可靠性,并降低错误信息的风险。然而,这些方法可能只能捕捉到一些不准确的地方。它们还增加了推理过程中的计算开销。
对于每个新任务,标准方法是微调预训练的模型,或者用几个演示该任务的输入输出示例“提示”模型(Brown2020)。微调成本高昂,但提示在某些需要推理的任务上效果不佳(Rae2021)。论文(Zhang,2023a)甚至认为,LLM以错误的上下文为条件会导致错误,而不是模型中的“知识差距”。它们会产生滚雪球般的幻觉,才与早期的幻觉保持一致。
不同的方法可能具有不同的知识图覆盖范围,从而影响模型处理各种查询的能力。训练和推理过程中的计算成本也因方法而异,影响了它们在实时应用中的可行性。方法的稳健性取决于其处理不同查询和适应知识图数据变化的能力。最终,知识增强方法的选择取决于具体的用例、可用资源以及准确性、效率和灵活性之间的期望权衡。在特定情况下,将多种方法相结合也可能是有益的,利用它们各自的优势。
转载自:https://mp.weixin.qq.com/s/cKDKkb_tibe4zM-Kf-lfrA