加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

AI人工智能之知识图谱演化综述

(2023-12-05 11:04:41)
标签:

chatgpt

ai讲师

人工智能讲师

提供了对各种类型知识图谱(静态知识图谱、动态知识图谱、时态知识图谱和事件知识图谱)及其知识提取和推理技术的全面调查
介绍了不同类型知识图谱的实际应用,包括金融分析的案例研究
展望了知识工程的未来方向,包括知识图谱与大型语言模型的结合潜力,以及知识提取、推理和表达的演化。
1. 传统的事件抽取方法依赖于手工特征设计,而基于神经网络的方法利用深度学习和预训练语言模型可以更好地捕捉上下文信息和复杂的事件关系。这些方法在事件抽取任务中取得了显著的性能提升。通过fine-tuning预训练语言模型,可以有效地提高事件抽取的准确性和效率。
传统方法相对依赖于手工设计的特征,对于不同的任务可能需要重新设计特征。而基于神经网络的方法可以自动地从数据中学习到特征表征,从而在不同的任务上表现更好。
2. 传统的事件抽取方法通常需要大量标注的数据来训练模型。而基于大规模预训练语言模型的方法可以利用丰富的上下文信息和语义知识,通过fine-tuning只需要较少的标注数据就可以取得较好的性能。
预训练语言模型可以在大规模的语料库上训练,学习到丰富的上下文信息和语义知识,从而可以更好地理解和表达文本中的事件信息。通过fine-tuning预训练模型,可以将模型适应到特定的事件抽取任务上,从而提高模型的性能。
3. 传统的事件抽取方法通常需要手工设计特征来表示事件触发词和事件论元,而基于预训练语言模型的方法可以通过学习上下文信息和语义知识来自动地表示事件触发词和论元,从而提高事件抽取的准确性。
预训练语言模型可以学习到丰富的上下文信息和语义知识,可以更准确地理解文本中的事件触发词和论元。通过fine-tuning预训练模型,并将其用于事件抽取,可以提高事件抽取的准确性。
4. 传统的事件抽取方法通常需要手工设计规则或者使用复杂的特征工程来识别事件触发词和论元,而基于预训练语言模型的方法可以通过学习到的上下文信息和语义知识来自动地识别事件触发词和论元,从而简化了特征工程的过程。
预训练语言模型可以学习到丰富的上下文信息和语义知识,可以自动地识别文本中的事件触发词和论元。通过fine-tuning预训练模型,并将其用于事件抽取,可以简化特征工程的过程,提高模型的准确性和效率。
5. 基于预训练语言模型的事件抽取方法可以更好地捕捉到事件触发词和论元之间的复杂关系,从而提高事件抽取的准确性。
传统的事件抽取方法通常需要手工设计规则或者使用复杂的特征工程来表示事件触发词和论元之间的关系,存在表示能力的局限性。而基于预训练语言模型的方法可以通过学习到的上下文信息和语义知识来捕捉事件触发词和论元之间的复杂关系,从而提高事件抽取的准确性。
6. 基于预训练语言模型的事件抽取方法可以将事件抽取和其他自然语言处理任务进行联合建模,从而提高模型的性能和效率。
传统的事件抽取方法通常单独进行事件触发词和论元的识别和分类,没有充分考虑到事件抽取和其他自然语言处理任务之间的关系。而基于预训练语言模型的方法可以将事件抽取和其他自然语言处理任务进行联合建模,充分利用上下文信息和语义知识,从而提高模型的性能和效率。
7. 基于预训练语言模型的事件抽取方法可以利用大规模的语料库和预训练模型,从而提高事件抽取的准确性和效率。
传统的事件抽取方法通常需要大量的标注数据来训练模型,并且需要手工设计复杂的特征。而基于预训练语言模型的方法可以利用大规模的语料库和预训练模型,减少了对标注数据的依赖,并且可以自动地学习到特征表征,从而提高事件抽取的准确性和效率。
论文链接:https://arxiv.org/abs/2310.04835.pdf
读者可添加笔者微信fanqie6655
本论文提出了一种新的任务,即知识感知语言模型归属(KaLMA),用于改进传统归属语言模型的三个核心问题。
首先,将归属源从非结构化文本扩展到知识图谱(KG),富有结构的KG既有利于归属性能,又适用于工作场景。
其次,提出了一种新的“知识不足”设置,考虑到知识库不完全的情况下,模型能够识别出对提供的KG之外的支持性知识的需求。
第三,提出了一个全面的自动评估指标,涵盖了文本质量、引用质量和文本引用对齐。
为了实现以上创新,我们通过精心设计的演化式问题生成策略,在传记领域构建了一个数据集BioKaLMA,以控制问题的复杂性和答案所需的知识。
为评估,我们开发了一个基准解决方案,并展示了LLMs引文生成改进的空间,强调了“知识不足”设置的重要性,以及检索准确性的关键作用。
1. 这篇文章使用了什么方法来生成带有知识属性的回答?答: 文章使用了一个由三个组件组成的流程,包括检索、重新排序和生成。检索部分使用了命名实体识别和图检索的方法,然后将检索到的知识图转换成平面文本。重新排序的组件用于消除检索到的实体中的歧义,以确定最佳的匹配。生成的组件将平面文本的知识图与问题一起输入到语言模型中,生成带有知识属性的回答。
2. 文章中的检索组件由哪些步骤组成?答: 检索组件由命名实体识别和图检索两个步骤组成。首先使用spaCy来识别问题中提到的命名实体,然后使用SPARQL检索实体为中心的子图。针对每个检索到的实体,搜索图中与该实体名称匹配的节点,然后使用检测到的命名实体类型作为过滤器,检索出带有属性的一跳子图。
3. 文章中的重新排序组件的作用是什么?它是如何工作的?答: 重新排序组件在消除检索到的实体中的歧义方面起到关键作用。由于图中可能存在同名的不同实体或者同一实体的不同引用,需要对检索到的图进行排序以确定最佳匹配。对于给定的实体名称,根据相邻节点和问题之间的精确匹配(Exact Match)对图进行排序。根据匹配到的相邻节点数量选择具有最高匹配数的实体作为结果。
4. 生成组件是如何工作的,用来激励LLMs生成具有知识属性的回答?答: 生成组件将检索得到的知识图转换为平面文本,并将其与问题一起输入到语言模型中。为了适应语言模型的输入格式,将结构化的知识图映射到一组三元组。每个三元组包含两个节点和一条边,其中一个节点是中心实体,另一个节点是其相邻节点,边表示它们之间的关系。例如,[Q212657 - place of birth Q220]可以转换为[Artemisia Gentileschi place of birth - Rome]。构建一个包含生成带属性回答的指令,检索到的知识图和问题的提示。
5. 文章中提到了三种自动评估方法,分别是什么?为什么需要这些自动评估方法?答: 文章提出了三种自动评估方法,分别是文本质量评估、引用质量评估和文本-引用对齐评估。这些自动评估方法用于评估生成的文本的质量、引用的准确性以及文本和引用之间的对齐程度。这些评估方法帮助我们了解语言模型在使用知识图进行回答生成时的表现,以及帮助我们评估模型的性能。
6. 文章中的评估结果显示了哪些有意义的发现?答: 评估结果显示,当前的语言模型在使用知识图进行回答生成时仍有改进空间。GPT-4 模型在几乎所有度量指标上表现最好,但在召回率方面略逊于 LLaMA 模型。此外,从实验结果中还可以发现,检索准确性对生成的引用质量具有重要影响,当检索准确性较高时,引用的准确性不是最关键的问题,而是召回率变得更为重要。此外,人工评估结果与自动评估结果之间存在较好的一致性。
7. 文章提到了几个研究的局限性是什么?答: 文章提到了两个研究的局限性。首先,文章仅研究了简单形式的知识图,其中每个节点是一个实体,每个子图是一个知识三元组。还有更复杂的知识图形式,其中每个节点是一个文档。对于这些更复杂的知识图形式,我们将在将来的研究中进一步探索。其次,文章中提到的文本质量评估使用了 ChatGPT 模型来评估,但该模型可能存在一定的偏见,如果模型更喜欢自己生成的文本风格,会导致评估结果偏高。由于成本考虑,我们没有重复使用 GPT-4 进行文本质量评估。
论文链接:https://arxiv.org/abs/2310.05634.pdf

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有