当前位置: 首页 > news >正文

胃肠科医院网站建设拖拽式网站建设源码

胃肠科医院网站建设,拖拽式网站建设源码,做网站还需要续费,可以免费建手机网站知识增强语言模型提示 零样本知识图谱问答 摘要介绍相关工作方法零样本QA的LM提示知识增强的LM提示与知识问题相关的知识检索 实验设置数据集大型语言模型基线模型和KAPIN评估指标实现细节 实验结果和分析结论 摘要 大型语言模型#xff08;LLM#xff09;能够执行 零样本cl… 知识增强语言模型提示 零样本知识图谱问答 摘要介绍相关工作方法零样本QA的LM提示知识增强的LM提示与知识问题相关的知识检索 实验设置数据集大型语言模型基线模型和KAPIN评估指标实现细节 实验结果和分析结论 摘要 大型语言模型LLM能够执行 零样本closed-book问答任务 依靠其在预训练期间存储在参数中的内部知识。然而这种内部化的知识可能是不足和错误的这可能导致LLM生成错误的答案。此外对LLM进行微调以更新其知识是昂贵的。为此本文提议直接在LLM的输入中增加知识。具体而言首先根据问题与相关事实之间的语义相似性从知识图谱中检索与输入问题相关的事实。然后将检索到的事实以提示的形式前置到输入问题之前然后将其转发给LLM生成答案。本文提出的框架称为knowledge-Augmented language model PromptINGKAPING无需模型训练因此完全是零样本的。 还验证了KAPING框架在知识图谱问答任务上的性能该任务旨在基于知识图谱上的事实回答用户的问题在此任务上本文的方法在多个不同规模的LLM上相对于相关的零样本基线平均提高了高达48%的性能。 Closed-book问答任务指在回答问题时模型只能依靠其在预训练阶段学到的知识而无法进行额外的外部搜索或引用。这意味着在回答问题时模型不能直接访问互联网或其他外部资源。 Zero-shot closed-book问答任务是一种更具挑战性的闭书问答任务其中模型在没有任何先前训练的情况下无需额外的模型微调或更新直接回答问题。 在传统的闭书问答任务中模型需要在预训练后进行微调以根据特定的问题集和答案集进行调整。而在zero-shot closed-book问答任务中模型不需要进行任何额外的调整或微调仍然可以回答新问题。 这种任务要求模型能够利用其预训练阶段学到的通用语言理解和推理能力以及内部的知识表示来解决新问题。模型需要将问题与其内部知识进行联结从而推断出答案而无需对任务进行特定的针对性训练。 在zero-shot closed-book问答任务中模型通常会使用问题的提示信息或关键词来引导答案的生成。模型会利用其预训练的语言表示能力和对内部知识的理解以及与问题相关的提示信息生成可能的答案。 介绍 预训练语言模型通过自监督学习在大量文本语料上进行训练可以执行闭书问答closed-book Question AnsweringQA任务即仅依靠其内部参数中的知识来回答用户的问题而不使用任何外部知识。此外当增加语言模型的规模时大型语言模型可以在没有任何额外微调步骤的情况下为问题生成答案这称为语言模型提示LM prompting。然而由于LLMs中的知识可能是不完整、错误和过时的它们经常会生成事实上错误的答案即所谓的幻觉hallucination见图1a。此外通过参数更新来完善LLMs中的知识是昂贵的特别是当知识不断变化时例如货币汇率。最后LLMs是否正在获取正确的知识来回答问题尚不清楚。 为了克服这些限制本文提出直接检索和注入相关知识作为输入称为提示prompt传递给LLMs图1b。使用知识图谱作为知识源其中包含以三元组形式表示的符号知识头实体、关系、尾实体。因此为了提取与输入问题相关的事实首先将问题中的实体与知识图谱中的实体进行匹配。然后与知识图谱中的实体相关联的三元组被转化为文本形式并 前置到输入问题前面 然后传递给LLMs生成答案。 “前置到输入问题前” 指的是将相关知识直接插入到输入问题之前作为输入序列的一部分。在传统的问答系统中只有输入问题作为模型的输入模型需要通过自身的预训练知识来回答问题。而在这种方法中我们将从知识图谱中提取的相关知识以文本形式添加到输入问题之前形成一个新的输入序列。 举个例子假设有一个问题 “谁是美国的第一位总统”。 如果我们有一个知识图谱并且知道其中包含了以下三元组美国首都华盛顿和华盛顿位于哥伦比亚特区。那么在前置知识的情况下我们可以将这些知识转化为文本形式 “美国的首都是华盛顿华盛顿位于哥伦比亚特区。” 然后将这个文本知识添加到原始问题之前形成新的输入序列 “美国的首都是华盛顿华盛顿位于哥伦比亚特区。谁是美国的第一位总统”。 通过这种方式语言模型在生成答案时可以同时考虑问题和前置的知识从而能够更好地利用外部知识来提高答案的准确性和相关性。这种前置知识的方法可以帮助语言模型更好地理解问题的上下文和意图避免产生基于不准确或过时知识的错误答案。 因此基于事实知识的LLMs能够生成准确的答案减轻了幻觉问题同时保持LLMs的参数不变无需进行知识更新的微调。整体框架称为Knowledge-Augmented language model PromptINGKAPING它完全是零样本的并且可以与任何现成的LLMs一起使用无需额外的训练。 虽然上述方案看起来简单而有效但还存在一些挑战。 首先与问题实体相关的大多数检索到的三元组与回答给定问题无关。例如在维基数据知识图谱中为问题实体例如Poseidon检索相关的三元组时存在60个三元组其中大多数例如流派、出版日期等与回答问题无关。因此它们可能会误导模型生成错误的答案。 另一方面问题实体的三元组数量有时很大例如WebQSP数据集中有27的样本有超过1000个三元组因此编码包括不必要的所有三元组会带来很高的计算成本特别是对于大型语言模型来说。 为了克服这些挑战受信息检索的启发进一步提出了 基于语义相似性过滤不必要三元组 的方法。具体而言首先将问题及其相关的语言化三元组表示为嵌入空间中的向量。然后检索出一小部分三元组其嵌入与输入问题的嵌入相比其他三元组更接近。这样只将与给定问题更相关的三元组前置可以有效防止大型语言模型生成与问题无关的答案并且具有高的计算效率不像增加所有三元组的方法那样。值得注意的是这种过滤方法使用 现成的句子嵌入模型因此在我们的流程的每个部分都不需要额外的训练。 基于语义相似性过滤不必要的三元组 是指通过比较问题和其关联的三元组之间的语义相似性来筛选出与问题相关性较高的三元组从而减少不相关的三元组对于问题回答的干扰。 在知识图谱问答任务中通常通过检索知识图谱中与问题实体相关的三元组来获取问题的背景知识。然而检索到的三元组中可能包含大量与问题无关的信息这些不必要的三元组可能会误导模型导致生成错误的答案。 为了解决这个问题可以使用语义相似性来衡量问题和三元组之间的相似程度。常见的方法是将问题和三元组表示为向量形式然后计算它们之间的相似度。根据相似度的大小可以选择保留与问题最相关的三元组而过滤掉与问题关联性较低的三元组。 现成的句子嵌入模型指的是已经经过预训练并可供使用的句子级别的文本表示模型。这些模型通过将输入的句子转换为连续向量表示捕捉句子的语义和语法信息并将其映射到一个高维向量空间中。这些向量表示可以用于计算句子之间的相似性、分类、聚类等自然语言处理任务。常见的句子嵌入模型包括BRERT、GPT等。 然后在知识图谱问答KGQA任务中验证了KAPING框架。结果表明KAPING显著优于相关的零样本基线。此外详细的分析支持知识检索和增强方案的重要性。 本文这项工作中的贡献有三个方面 • 提出了一种新的知识增强的语言模型提示框架利用知识图谱中的事实知识进行零样本问答。 • 提出了基于问题及其相关三元组之间的语义相似性来检索和增强知识图谱中相关事实的方法。 • 在知识图谱问答基准数据集上验证了我们的KAPING在这些数据集上本文的方法令人印象深刻地优于相关的零样本基线。 相关工作 语言模型提示 语言模型预训练是一种训练Transformer模型的方法使用未标注的文本语料库进行自编码或自回归目标的训练。它已成为自然语言任务的一种重要方法。此外大型语言模型能够进行零样本学习例如基于预训练参数中存储的知识根据输入的文本提示生成答案而无需额外的参数更新或标记的数据集。为了进一步提高它们的性能一些工作提出从训练数据集中检索与输入问题相关的样本并将它们在少样本学习中添加到提示中。最近的一些工作进一步表明当LLMs在从自然语言任务中提取的一系列指令上进行微调时它们在未见过的零样本任务上具有强大的泛化性能。然而LLMs内部的知识可能不足以处理事实性问题这引发了知识增强的LLMs。 知识增强的语言模型 最近的研究提出将知识如来自无结构语料库例如维基百科的文档和来自知识图谱的事实整合到语言模型中。其中REALM和RAG学习检索文档并将其与语言模型结合。此外知识图谱也可以是另一种知识源其中知识以最紧凑的形式进行编码一些方法将KG中的事实增强到语言模型中。然而所有上述方法都需要大量的训练数据和模型更新用于下游任务。虽然最近的一些工作表明通过检索增强的语言模型在少样本学习中具有很强的性能但仍需要额外的训练步骤这与完全零样本的LM提示不同。 最近有几项研究在LM提示方案中增加了知识。首先一些工作提出通过提示提取LLMs本身参数中的知识然后使用提取的知识回答问题。然而由于LLMs的参数可能不足以存储所有世界知识提取的知识和生成的答案可能不准确。另一方面最近Lazaridou等人提出使用谷歌搜索在Web上检索文档然后将检索到的文档与少样本演示一起添加到输入问题中在少样本的LLM提示方案下回答问题。然而关注与之前研究不同的零样本提示与KGs的结合利用KGs可以带来额外的优势。具体而言由于KGs可以以紧凑的三元组形式简洁地编码知识在问答任务中相比于文档情况本文的方法使LLM提示更加高效即减少输入序列长度同时在零样本问答方案上更加有效LLMs需要从提示中选择包含答案实体的一个三元组而不是查找包含各种实体的冗长文档。 方法 接下来描述KAPING框架。 零样本QA的LM提示 首先从零样本问答开始然后解释语言模型提示。 零样本问答 给定一个输入问题x问答QA系统返回一个答案y其中x和y都由一系列标记组成x [w1w2…w|x|]。假设P是一个基于生成语言模型的QA模型它生成给定问题x的答案y的条件概率如下P(y|x)。与使用一组带标注的x , y样本来训练模型P的监督学习不同零样本学习不使用任何带标签的样本和模型训练。值得注意的是对这种零样本QA感兴趣是因为收集数据集并为每个新领域微调现有的LM被认为是昂贵且有时不可行的。 LM提示 LM通常通过基于先前标记预测下一个标记进行预训练这被称为自回归语言建模。然后由于这种预训练目标LLM可以进行零样本指令学习。具体而言当向LLM即P提供一个问题和一条指令例如“请回答以下问题《Lady Susan》的作者是谁”时LLM在输入文本的条件下可以顺序生成输出标记的概率这可能是一个答案比如“Jane Austen”。 为了更规范对于每个输入问题x首先使用特定的指令模板T将其修改为一个文本字符串x’称为提示prompt如下所示Tx → x’。例如如果我们有先前的问题x “Who is the author of Lady Susan?” 以及先前的指令模板Please answer the question:则生成的提示x’将为T(x) “Please answer the question: Who is the author of Lady Susan?”。然后将提示x’传递给LLM即PLLM通过P(y|x’)生成答案即y。注意这种LM提示方案不需要对标记数据进行任何额外的模型参数更新即微调因此适用于目标零样本QA任务。 然而在这种单纯的零样本提示QA中存在多个挑战。首先LLM依赖参数中的知识容易生成事实上不正确的答案因为LLM中的知识可能是不准确和过时的知识可能随时间的推移而出现和变化。此外使用额外的参数更新来改进内部知识是昂贵的而且有必要反映错误和不断增长的知识。最后LLM在生成对问题提示的答案时记忆和利用哪些知识是不清楚的这限制了它们在输出上的可解释性。 知识增强的LM提示 为了解决现有LM提示方案的前述限制本文提出了一种将相关知识从知识图谱KG注入到输入问题中的方法称为增强知识语言模型提示Knowledge-Augmented language model PromptINGKAPING。 在本小节中首先定义了KAPING框架的主要目标然后介绍了增强KG上的知识以及注入到LM提示中所需的要素。 使用知识图谱进行LM提示 不再仅依赖于 参数内部化的知识 而是提出通过访问和注入来自外部KG的知识来回答问题这些知识包含对回答问题有帮助的准确和最新的事实。形式上知识图谱G由一组事实三元组{(s, r, o)}组成其中s和o表示主体和客体实体r是它们之间的特定关系类型。例如一个关系型知识《Lady Susan》是由Jane Austen编写的可以表示为一个包含两个实体s Lady Susan和o Jane Austen以及关系r written by的三元组。然后对于通过模板T从示例问题x Who is the author of Lady Susan?转换而成的问题提示x’还将其相关三元组(Lady Susan, written by, Jane Austen)增加到LM提示方案中。通过这样做LLM可以根据来自KG的增强知识生成正确的答案形式化表示为P(y|x’, G)。需要注意的是由于可以在KG中提供特定和有效的事实给LLM该框架可以缓解LLM中不准确和过时知识导致的错误生成问题而无需昂贵地更新模型参数。此外还可以确认LLM是否基于增强事实生成答案从而提高LM提示的可解释性。 剩下的问题是如何从输入问题中访问KG上的关系符号事实将符号知识转化为文本字符串并将转化后的知识注入到LM提示方案中。下面的段落中将逐一解释它们。 知识访问 为了利用与输入问题相关的事实首先提取问题中的实体。例如对于问题谁是《Lady Susan》的作者“提取出实体Lady Susan”。然后基于提取的实体在知识图谱中找到对应的实体其关联的三元组成为与输入问题相关的事实。需要注意的是实体匹配可以通过现有的实体链接技术来完成。 知识转化 LLMs处理的是文本输入而事实三元组表示为符号图。因此在将来自知识图谱的符号事实注入到LLMs之前首先将包含(s, r, o)的三元组转化为文本字符串称为转化。虽然存在最近的方法专门设计或学习图到文本的转换但在本工作中我们使用线性转化将三元组中的主体、关系和客体文本连接起来我们观察到这在LM提示中效果良好参见附录B.5。例如一个三元组(Lady Susan, written by, Jane Austen)直接使用为(Lady Susan, written by, Jane Austen)作为LLM的输入。 知识注入 基于与输入问题相关的转化后的事实剩下的步骤是实现知识注入机制使LLMs能够基于外部知识生成答案。假设有一个与问题x相关的N个关联三元组k {(sᵢ, rᵢ, oᵢ)}ᴺᵢ₌₁。类似于上述描述的指令模板Tx → x’修改N个转化后的三元组k并将知识注入指令添加到知识提示k’中如下所示Tk → k’。用于构建提示的一个特定模板首先逐行列举N个转化后的三元组然后在提示的顶部添加具体指令“以下是以三元组形式表示的对回答问题有意义的事实。”。之后将这样的知识提示字符串k’添加到问题提示x’之前LLMs根据知识和问题提示生成答案标记形式化表示为P(y|[k’, x’])其中[·]表示连接。 与知识问题相关的知识检索 KAPING框架允许LLMs利用知识图谱中的知识进行零-shot问答。然而存在一个关键挑战即与问题相关的三元组数量往往太大无法直接用于LLMs。而且其中大部分与问题无关会误导LLMs生成不相关的答案。 知识检索器 为了克服这些限制进一步提出仅检索和增强与问题相关的三元组。需要注意的是存在一种文档检索方案其目标是根据嵌入相似性为给定查询检索相关文档这激发了我们检索用户问题的三元组的想法。特别是由于在上一节中定义的知识转化器可以在文本空间中操作从符号知识图谱中获取的三元组。因此对于转化后的三元组和问题首先使用现成的句子嵌入模型对它们进行嵌入表示然后计算它们之间的相似性。然后仅使用与给定问题相关的前K个相似三元组而不是使用所有与问题相关的N个三元组。需要注意的是与最近的一些研究不同这些研究旨在通过监督训练改进知识图谱检索器本身专注于使用知识图谱进行零样本LM提示因此将现成的检索器作为工具用于过滤掉与问题无关的三元组。 实验设置 解释数据集、模型、度量和实施。 数据集 在两个知识图谱问答KGQA数据集上评估知识增强语言模型PromptINGKAPING框架分别是WebQuestionsSP和Mintaka。 WebQuestionsSPWebQSP 这个数据集是使用Freebase知识图谱设计的。它包含1,639个测试样本我们将其用于零样本评估。另外由于Freebase已经过时我们还使用了Wikidata知识图谱并使用了从Freebase ids到Wikidata的可用映射。这个额外的数据集包含1,466个样本。 Mintaka 这个数据集是最近使用Wikidata知识图谱设计的用于复杂KGQA任务的数据集。在8种不同语言中我们使用英语测试集其中包含4,000个样本。 大型语言模型 为了验证KAPING框架在大型语言模型LLM上的性能并在零样本KGQA上进行基准测试使用各种不同大小的LLM。 具体而言使用了T5、T03B、11B、OPT2.7B、6.7B和GPT-36.7B、175B。详细信息请参见附录A.2。 基线模型和KAPIN 在这个小节中解释了四个零样本LM提示的基线模型以及KAPING框架。 无知识No Knowledge 这是一个简单的LM提示基线它在没有来自知识图谱的知识增强的情况下从输入问题生成答案。 随机知识Random Knowledge 这是一个LM提示基线它还会将与问题中出现的实体相关的随机抽样的K三元组增加到提示中。 热门知识Popular Knowledge 这是一个LM提示基线它根据在知识图谱中最常见的关系将K个热门三元组增加到提示中这些三元组来自于问题实体的所有三元组中。 生成的知识Generated Knowledge 这是一个LM提示的基线模型它首先根据提示从LLM中提取知识然后将其作为提示的形式进行增强。 KAPING本文提出的模型 这是本文的知识增强语言模型PromptINGKAPING框架它首先使用知识检索器检索与问题相似的前K个三元组然后将它们作为提示的形式进行增强。 评估指标 生成 评估遵循生成式知识图谱问答generative KGQA的评估协议使用准确率作为评估指标衡量给定提示生成的标记中是否包含答案实体之一。值得注意的是还考虑了Freebase和Wikidata知识图谱中可用的答案实体的别名一组替代名称进行评估。 检索 评估我们还衡量检索器的性能以了解检索到的三元组对于答案生成的帮助程度。作为评估指标我们使用平均倒数排名Mean Reciprocal RankMRR和Top-K准确率Top-K它们通过正确检索到包含答案实体的三元组在与问题实体相关的所有三元组中的排名进行计算。 实现细节 对于知识注入将检索到的事实数目设置为10K 10三元组检索的跳数为1。对于基于文本的检索器我们尝试使用MPNet它使用相同的编码器对问题和三元组进行嵌入。有关详细信息请参见附录A.4。 实验结果和分析 提供了KAPING框架的总体结果以及对其进行的全面分析。 主要结果 如表1所示KAPING框架在零样本KGQA任务中显著优于所有的LM提示基线模型。特别是生成的知识模型在性能上大多低于无知识模型因为从LLM中提取的知识可能是不准确的。 另一方面随机知识和热门知识基线模型能够提升性能因为从知识图谱中增强的知识有时对回答问题是有用的。然而KAPING模型表现更好这表明对于零样本的LM提示问答LLM中内部化的知识不足以生成准确的答案只使用相关的事实知识是很重要的。 此外还观察到当LLM相对较小时性能改进更大。换句话说由于较小的模型在预训练期间没有足够的参数空间来记忆知识它们更容易生成事实上不正确的答案。然而当给予它们适当的知识时它们的性能有时会变得类似于较大的模型例如KAPING对于不同大小的OPT模型具有类似的性能。因此对于在资源有限的情况下需要事实知识的任务例如生产环境增强知识可能比增加模型大小来处理大量知识更有益。 检索结果 为了了解增强的知识的相关性进一步衡量了检索性能。如表2所示现有的检索模型即MPNet在性能上优于随机和热门检索器。这个结果表明我们简单的图转文本表述方法与现有的检索器配合得很好进一步证实了我们的KAPING在LM提示中增强了有用的事实知识。关于候选三元组的检索跳数我们观察到当我们将跳数从1增加到2时检索器更有可能检索到不包含答案实体的不相关三元组如表2所示。因此在实验中从问题实体的1跳三元组中检索知识。 此外由于可以根据检索器返回的Top-1三元组中的实体来替代回答输入问题将LLM的生成性能与检索性能进行了比较。如图2所示即使在没有知识增强的情况下即无知识LM提示方案的性能仍优于仅使用检索到的三元组中的实体进行回答除了WebQSP w/ Freebase数据集。 此外KAPING框架与简单的检索方案之间存在巨大差距这适用于所有数据集。这些结果表明在零样本KGQA中利用LLM基于其内部化和外部化的事实知识生成答案会很有帮助而不是直接在知识图谱中搜索答案实体。 正确和错误检索结果的影响 对正确检索到包含答案实体的三元组对性能改进的影响进行了分析以及错误检索到不包含答案实体的三元组对性能的影响。如图3所示当检索到的三元组包含答案实体时与没有知识增强的模型相比LLM的性能显著提高。然而当检索器失败时性能低于没有知识增强的模型。这些结果表明当增强相关知识时LLM能够进行上下文处理并准确生成答案。与此同时错误检索到的知识使LLM依赖于无关的事实并生成错误的答案。 不同数量的知识的影响 改变事实的数量以查看在提示中增加哪些三元组数量对于性能和墙钟时间之间的权衡是最优的。首先如图5所示当三元组的数量为5或10时大多数LLM达到了相对较高的性能水平。此外当我们进一步增加增强的三元组数量到15和30时OPT模型的性能大幅下降。这个结果表明当无关的三元组数量较多时一些LLM可能会分散注意力因此无法选择和生成答案实体。 然后测量了编码器-解码器T0和仅解码器OPT模型在不同数量的增强三元组下生成答案的墙钟时间。如表3所示对于编码器-解码器模型KAPING框架在少于10个三元组的情况下比没有知识增强的模型更快。这是因为当知识增强到模型中时模型倾向于生成较短的答案这可以减少解码时间。具体而言对于带有10个三元组的T0模型生成的标记长度为15而无知识模型平均生成32个标记。然而对于仅解码器模型OPT增强的知识越多模型的速度就越慢这是由于其自回归特性需要消化输入。 被检索的三元组顺序的影响 在少样本LM提示中LLM除了观察少量示例外还对示例的顺序敏感它们倾向于遵循最后一个示例中的答案。基于这些观察分析了检索到的三元组的顺序是否影响性能。具体而言通过将更相似的三元组放置在提示的顶部、底部或随机位置来改变问题中更相似的三元组的位置。如图4所示除了WebQSP数据集上的OPT模型外KAPING对检索到的三元组的位置不敏感。换句话说OPT模型倾向于生成位于提示输入的第一部分的实体。与此同时其他LLM可以对整个提示输入进行上下文处理并生成实体而不受其位置的影响。 实体链接的有效性 根据传统的KGQA评估方法使用数据集中标记的问题实体来检索知识图谱中的事实。然而为了观察使用实体链接EL技术识别出的实体的性能进一步使用EL模型即ReFinED进行实验。如表5所示尽管由于EL的性能KAPING w/ EL的性能略有下降但与没有知识的模型相比始终观察到了有意义的性能改进。 案例研究 在表4中进行了一个案例研究。特别是当没有给予LM知识时它会产生事实上不正确的答案。然而当相关的事实被检索并增加到提示中时它可以生成正确的答案。此外分析了KAPING是否能够适应更新后的知识这是因为一些知识可能会随时间变化而LM中的知识保持不变。为此如表4的最后一行所示我们替换了三元组的对象实体然后将修改后的事实作为提示传递给LM。结果显示LM可以根据更新后的事实生成输出这表明了在不昂贵地更新其参数的情况下适应LM的潜力。 附加结果 在附录B中提供了额外的实验结果。具体而言在附录B.1中比较了检索器的性能对模板文本进行了敏感性分析在附录B.2中提供了额外指标包括人工评估的结果在附录B.3中验证了我们的KAPING在少样本设置下的效果在附录B.4中对语言表述进行了分析以及在附录B.6中提供了效率分析。 结论 在本文中专注于现有LM提示方案的局限性这些方案依赖于内部化参数中的静态知识因此当这些知识不完整、不准确和过时时LLM可能会生成事实上不正确的答案。为了解决这一挑战引入了一种新颖的知识增强语言模型提示KAPING框架该框架直接从知识图谱中为输入问题的提示增添知识并利用事实检索器仅注入相关知识。所提出的框架完全是零样本的适用于任何LM无需额外的参数更新和训练数据集。我们验证了我们的KAPING在KGQA任务上与依赖于其内部知识的LM提示模型之间存在巨大的性能差距尤其是在使用较小的LM时。从KG中增加事实到LM提示的新机制将在生成基于知识的答案方面产生实质性的影响。 局限性 在本节中讨论了当前的局限性和未来研究的潜在途径。 首先知识增强框架的生成性能在很大程度上取决于检索器的有效性。换句话说如果检索器无法检索到与输入问题相关的事实那么以无关事实为条件的提示LM很可能会生成错误答案参见图3。同样地如果检索器没有设计用于检索问题实体的2跳邻居的事实LLMs生成需要2跳知识的答案的可能性较小。请注意对于Mintaka数据集具有1跳事实的可回答问题的数量仅占总样本的40。然而当包括2跳三元组时可回答问题的数量增加到62这表明了获取2跳检索的必要性但这仍然具有挑战性参见表2。因此未来的工作可以改进检索方案本身以向LLM提供更准确的包括多跳的事实或者可以开发机制来防止LLM被无关事实误导。 另一方面对于提示的LLM生成性能评估指标可以进一步改进。具体而言对于KGQA任务问题的答案是知识图谱中的实体。然而没有额外训练的提示LLM即零样本往往会将答案生成为句子。例如在表4中问题的标签实体例如Alex Chilton死于哪里的答案是“新奥尔良”然而LLM经常生成句子级的输出“Alex Chilton于2010年3月17日在路易斯安那州新奥尔良死于心肌梗死”。目前通过测量生成的标记是否包含答案实体来评估模型性能然而开发将LLM的句子级输出与知识图谱中的单词级答案进行更有效比较的附加指标将是值得的。 请注意还尝试了其他可用的指标参见附录B.3例如F1和完全匹配EM分数然而它们很大程度上惩罚较长的句子例如表4中正确示例的EM为0因此可能不适合评估LM提示方案。 最后由于专注于提高LM提示中的知识注入当评估模型时使用KGQA数据集中的标记实体遵循现有的KGQA评估设置。然而在实际应用中问题中的实体大多数情况下是不提供的因此首先需要使用现有的实体链接技术提取问题中的实体因此模型性能取决于实体链接的有效性。特别是关于表5中具有实体链接结果的实体的结果数据集中标记实体的可回答问题部分占总数的40然而使用实体链接模型中的实体的可回答问题部分仅占22。因此由于改进的实体链接性能将有助于我们的KAPING框架的性能提升对于KGQA任务未来的工作可以推进这样的实体链接方案。
http://icebutterfly214.com/news/25795/

相关文章:

  • 2025年11月四川护栏厂家推荐榜:阳台河道栏杆厂家排行新观察
  • 2025年11月超声波清洗机厂家榜单:性能参数与口碑评分全解析
  • 设备版本升级-思科NXOS
  • 设备版本升级-华三
  • 跟着狂神学习Java基础打卡第二天
  • 安装Gradle超时java.net.SocketTimeoutException: Read timed out
  • 实用指南:神经网络常用激活函数公式
  • 实用指南:AI学习日记——深度学习
  • VMware开机自启虚拟机及报错修复
  • rustfs一键脚本配置方式
  • 2025年重袋包装机品牌排行榜:十大实力厂家综合评测
  • MyBatis报错SQL 命令未正确结束
  • SGLANG Docker容器化部署指南
  • 【React】useMemo 和 useEffect 的用法 - 实践
  • 深入解析:眼控交互:ErgoLAB新一代人机交互方式
  • 分享一个Oracle 数据库信息收集脚本
  • 百度网盘把Windows下的习惯带进了Linux
  • 自指自洽,天职天命,苦乐年华
  • 深入解析:仿mudou——Connection模块(连接管理)
  • C语言“变量”与Python“Name”:跨语言核心概念及内存模型辨析
  • 深入解析:Git Commit Message 最佳实践:从一次指针Bug说起
  • 【技术术语】蓝绿部署
  • 焊接机械手气体节能小秘诀
  • 2025年油溶性染料订做厂家权威推荐榜单:PET染料/透明红B/水性荧光示踪剂源头厂家精选
  • P8592 『JROI-8』颅脑损伤 2.0(加强版) 题解
  • 开源 C++ QT QML 开发(十三)多线程 - 实践
  • 从零开始学Flink:实时流处理实战 - 教程
  • 2025年搓管机全套管实力厂家权威推荐榜单:旋挖全套管/全回转钻机全套管/全回转全套管源头厂家精选
  • unt
  • 2025年改善睡眠设备专业推荐排行榜:科技助力健康生活