公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4

AI最新资讯2个月前发布 tree
19 0 0

今日应用


今日话题


公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
 

重点标签 因果推理Transformer模型AI研究公理训练泛化能力

文章摘要


本文介绍了一种通过公理训练(axiomatic training)学习因果推理的方法,由微软、MIT 和印度理工学院海得拉巴分校(IIT Hyderabad)的研究团队提出。该方法利用 Transformer 模型在小图谱的因果传递性公理演示上进行训练,发现其能够泛化到大图谱的传递性公理,从而实现更为复杂的因果推理。这种方法提供了一种新的范式,即通过符号演示教授模型学习因果推理,而不仅仅依赖于数据生成流程。

因果推理是一组符合因果性预定义公理或规则的推理流程。通过正则化、模型架构或特定的变量选择,可以将公理或规则集成到机器学习模型中。Judea Pearl 提出的「因果阶梯」定义了因果推理的可能类型,包括观察数据、干预数据和反事实数据。而本文的研究则是探索直接使用机器学习模型学习公理的符号演示,以实现因果推理。

研究团队提出了一种基于被动数据来学习因果推理的新范式,即公理训练框架。他们将因果公理表示为符号元组 ⟨premise, hypothesis, result⟩,并构建了数据集、损失函数和位置嵌入来训练 Transformer 模型。通过在特定变量设置下枚举所有可能的元组,生成训练数据集,并定义了基于基本真值标签的损失函数。此外,位置编码的选择也是关键因素,研究团队尝试了不同的编码方式,包括可学习位置编码(LPE)、正弦位置编码(SPE)和无位置编码(NoPE)。

实验结果表明,通过公理训练的 Transformer 模型在简单的因果链上训练后,能够泛化到更大的因果链上,并在长度、名称、顺序和结构泛化方面表现出色。特别是在无位置编码的情况下,模型的泛化能力得到了显著提升。此外,该方法还能泛化到更困难的问题,如基于统计独立性陈述的因果关系分辨。

总的来说,这项研究为因果推理领域提供了一种新的学习范式,即通过公理训练学习因果推理,具有广泛的应用前景。

文章来源


原文地址: 点我阅读全文
原文作者: 机器之心

© 版权声明

相关文章

暂无评论

暂无评论...