1. 首页 > 游戏攻略

中国科大新成果入选 ICLR 2025 中国科大成果转化政策

让大语言模型更懂特定领域姿势,有新招了!

来自中国科学技术大学 MIRA 实验室的王杰教授团队提出了壹个创新的框架 —— 姿势图谱驱动的监督微调(KG-SFT),该框架通过引入姿势图谱(KG)来提高大语言模型(LLMs)在特定领域的姿势理解与处理能力。

实验结果表明,其在多个领域与多种语言的数据集上取得了显著的效果,成功入选 ICLR 2025。

截至目前,LLMs 在常识问答方面表现越来越出色,但它们对领域姿势的理解与推理能力仍然有限。

由于难以深入理解专业领域问答背后所蕴含的复杂姿势与逻辑关系,因此在面对这类问题时,往往无法准确地向出正确的答案与详细的推理过程,这极大地限制了其在专业领域的应用价值。

尤其是在数据稀少与姿势密集型的场景中,怎么让 LLMs 更好地理解与操纵姿势,成为了研究的决定因素。

而中科大 MIRA 实验室的这项工作即围绕此展开。

KG-SFT 是怎么工作的

KG-SFT 针对 LLMs 难以理解领域问答背后的姿势与逻辑,导致推理能力弱的问题,提出基于姿势图谱增强的大语言模型监督微调技术。

KG-SFT 首先通过分析领域姿势图谱中的多条推理途径,设计图上推理途径和文本推理过程的联合生成机制。使 LLMs 在监督微调过程中,能够同步输出推理答案以及蕴含丰富领域姿势与逻辑关系的推理过程,从而提高其对领域姿势的理解和推理能力。

KG-SFT 框架的核心在于将姿势图谱和监督微调相结合,通过生成问答背后的逻辑严密的推理过程解释来增强 LLMs 对姿势与逻辑的理解。

该框架包含三个决定因素组件:

    Extractor(提取器)

    Generator(生成器)

    Detector(检测器)

    1、Extractor:精准提取姿势关联

    Extractor 首先对问答对(Q&A)中的实体进行识别,并从外部姿势图谱中提取相关的推理子图。

    这一流程揭示了 Q&A 对背后的姿势关联与逻辑,为后续的解释生成提供了基础。

    通过命名实体识别(NER)与多条推理途径的检索,Extractor 能够有效地从大规模姿势图谱中获得和问题相关的姿势。

    2、Generator:生成流畅的解释

    Generator 利用图结构重要性评分算法(如 HITS 算法)对推理子图中的实体与关系进行评分,挑选高分部分作为重要内容。

    然后,运用大型语言模型(如 ChatGPT)生成流畅的解释草稿。

    这些解释不仅逻辑清晰,而且能够帮助 LLMs 更好地理解问题与答案之间的关系。

    3、Detector:确保解释的正确性

    Detector 对生成的解释草稿进行句子级别的姿势冲突检测,确保解释的正确性。

    通过自然语言推理(NLI)模型(如 DeBERTa)与从头引导机制,Detector 能够标记并纠正也许存在的姿势冲突,从而提升解释的可靠性。

    实验结果及创新点

    实验结果表明,KG-SFT 在多个领域与语言配置中均取得了显著的性能提高。

    非常是在低数据医学问答任务上,KG-SFT 在英语场景中仅运用 5% 的训练数据就比传统方式提升了近 14% 的准确率。

    从创新之处来看,KG-SFT 不仅关注数据的数量,更注重数据的质量。

    通过生成高质量的解释,KG-SFT 帮助 LLMs 更好地理解与操纵姿势,从而在特定领域实现更优的性能。

    此外,KG-SFT 还可以作为插件式模块和现有的数据增强方式结合运用,进一步提高性能。

    在多领域数据集上的实验结果进一步验证了 KG-SFT 的广泛适用性。

    尽管在某些需要复杂推理的领域(如形式逻辑与专业会计)中表现稍逊,但整体性能依然具有较强的竞争力。

    一览而言,KG-SFT 框架通过结合姿势图谱与 LLMs,有效地提高了监督微调数据的质量,从而显著提升了 LLMs 在特定领域的性能。

    这一方式不仅在低数据场景中表现出色,还展示了其作为插件式模块和现有数据增强方式结合的潜力。

    论文作者第一作者陈瀚铸是中国科学技术大学 2021 级硕博连读生,师从王杰教授,主要研究方给为大语言模型、姿势图谱与推理数据合成。

    更多细节欢迎查阅原论文。

    论文地址:

    https://openreview.net/pdf?id=oMFOKjwaRS

    本文来自微信公众号:量子位(ID:QbitAI),作者:KG-SFT 团队,原标题《中科大 ICLR2025:特定领域仅用 5% 训练数据,姿势准确率提高 14%》