• 我的订阅
  • 科技

图结构转文本序列,大模型直接读懂!图推理性能大涨

类别:科技 发布时间:2024-12-03 13:33:00 来源:量子位

大语言模型直接理解复杂图结构的新方法来了:

将图(Graph)转换为适合Transformer架构的线性token序列。

belike:

图结构转文本序列,大模型直接读懂!图推理性能大涨

这种最新图线性化方法,反映了自然语言中局部依赖性和全局对齐性两个关键属性,即:

不仅需要保留基于前文上下文预测下一个token的能力(局部依赖性),而且不同图的token序列应该从具有相似特征的token开始或结束(全局对齐性),就像自然语言文本经常以特定词语开头或结尾。

如此一来,在海量文本数据上训练的LLM也能更好地理解图结构中的关系和属性,如节点计数、最大度数计算和图式形状分类等图推理任务都能完成。

具体如何实现?

机器学习工程师Rohan Paul发帖推荐论文并做了个总结。

用多种技术开发了图线性化方法:图中心性(PageRank和度)、图退化(k-core分解)、节点重标记方案 基于节点重要性创建了边排序策略 应用节点重标记以保持全局对齐

图结构转文本序列,大模型直接读懂!图推理性能大涨

作者使用GraphWave合成数据集进行评估,结果表明他们提出的线性化方法相比基线方法取得了更好的性能,特别是基于度中心性和PageRank的方法在多个任务中表现突出。

有网友已经迫不及待集成到RAG中了:

我一直在寻找这方面的论文。

图结构转文本序列,大模型直接读懂!图推理性能大涨

多种基于图论的线性化方法

在具体方法上,图线性化涉及将图的节点和边转换为线性token序列。

图结构转文本序列,大模型直接读懂!图推理性能大涨

研究团队提出了几种基于图论的图线性化方法。

一种是根据图中心性(Graph centrality)对节点进行排序。

这里的中心性可以是节点的度(Degree centrality),即与节点直接相连的边的数量;也可以是更为复杂的PageRank值,它不仅考虑节点的连接数,还考虑连接到它的节点的重要性。

研究人员根据排序结果选择与重要性最高的节点相连的边,并随机排列这些边,然后对下一个重要性节点重复此过程。如果多个节点具有相同的中心性值,则随机选择它们的顺序。

另一种是基于图退化性(Graph degeneracy)的方法,即通过图的核编号(Core Number)来排序节点。

利用k-core分解,将图分解为一系列嵌套的子图。核编号是指节点在图中最高核的编号。通过这种方式,能够捕捉到图中最核心的部分,并将这些信息线性化。

图结构转文本序列,大模型直接读懂!图推理性能大涨

除了基于节点属性的排序,作者们还考虑了直接对边进行排序的方法。

他们将每个图转换为其对应的线图(Linegraph),将原图的每条边转换为线图中的节点,如果原图中两条边相邻,则在线图中对应节点相连。然后,应用与核编号相同的过程来对Linegraph中的节点进行排序。

为了实现全局对齐性,作者还提出了节点重命名策略。

在这个策略中,不同图中具有最高核编号的节点被重新标记为索引0,以此类推。这样做的目的是让LLM能够将节点索引与其重要性属性之间建立一致的联系。

中心性方法总体优于退化性方法

为了测试上述方法的有效性,作者使用GraphWave生成器构建了合成数据集。

首先构造基础图(循环或链式结构),然后附加预定义形状的图案(motifs)。

研究人员选择了五种基本形状(团、星形、扇形、菱形和树),并包含了这些形状的组合,总共生成了3000个图,平均每个图包含32.33个节点和43.72条边。

图结构转文本序列,大模型直接读懂!图推理性能大涨

实验中设计了三个评估任务:

节点计数:要求模型从边列表推断节点数量 最大度计算:确定图中最大节点度数 图案形状分类:给定详细的图案定义,识别图中存在的图案

实验采用了Llama 3 Instruct 8B模型,使用4bit量化版本。为确保输出的确定性和一致性,temperature参数设为1e-3,sampling参数设为1e-1。

包括zero-shot和one-shot两种设置,并与两个基线方法比较:MotifAware基线,保持图生成过程中的默认边序;Random基线,完全随机的边列表排序和节点标签。

结果显示了以下几个重要发现。

首先,在节点计数任务中,所有方法都显示较低的平均误差,但准确率表现各异。基于度中心性和PageRank的方法表现最好,超过了基线方法。

图结构转文本序列,大模型直接读懂!图推理性能大涨

在最大度计算任务中,由于需要更复杂的计算过程,整体性能低于节点计数任务。使用默认节点标签时,度中心性和PageRank方法在one-shot设置下取得最佳效果。

节点重标记策略的效果因任务而异,在节点计数中,除了zero-shot的度中心性方法外,大多导致准确率下降,但在平均误差上通常有改善。

one-shot设置的性能普遍低于zero-shot,这表明示例可能并不总是有助于提高性能。

基于中心性的方法(度中心性和PageRank)总体上优于基于退化性的方法。

参考链接:https://x.com/rohanpaul_ai/status/1863014451827655118论文链接:https://arxiv.org/pdf/2410.19494

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-12-03 15:45:02

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

文生图参数量升至240亿!Playground v3发布:深度融合LLM,图形设计能力超越人类
...间层的token下采样,在32层中,在中间层将图像键和值的序列长度减少了四倍,使整个网络类似于只有一个下采样的传统卷积U-Net
2024-10-08 09:48:00
大模型重构生命科学!最大基础模型面世,解锁DNA超长序列
...生命语言,而非自然语言,意味着不仅能处理复杂的生物序列,为药物研发、精准医疗等领域助力;还能开启更多的前沿突破,比如在基因进化、合成生物学、设计/创造生命等方面创造价值……这
2024-11-07 09:50:00
突破时间序列组合推理难题!南加大发布一站式多步推理框架TS-Reasoner
...定义模块生成和多领域数据集评估,有效提高了复杂时间序列任务的推理能力和准确性。实验结果表明,TS-Reasoner在金融决策、能源负载预测和因果关系挖掘等多个任务上,相较于现
2024-10-29 09:55:00
支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频
...施,该研究建立了一个高效且用户友好的框架,即多模态序列并行 (MM-SP),它支持训练记忆 - 密集型长上下文 VLM
2024-08-22 09:51:00
从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型
...度的状态空间模型,它能够以线性计算复杂度实现对输入序列的有效建模,在近几个月受到了广泛的关注。本文给出了一个十分有趣的发现:强大的 Mamba 模型与通常被认为性能不佳的线性
2024-12-11 09:53:00
AI大模型行业报告:大模型发展迈入爆发期,开启AI新纪元(附下载)
...络(RNN)、卷积神经网络(CNN)等传统神经网络存在的长序列依赖问题。相较于RNN,Transformer具有两个显著的优势
2024-10-21 10:03:00
梁文锋杨植麟论文撞题,“注意力机制”对大模型意味着什么
...的推理中保持或超过了全注意力模型。同时,NSA在64k长度序列的解码、前向传播和后向传播过程中实现比全注意力机制显著的加速,验证其在整个模型生命周期中的效率。“此次DeepS
2025-02-19 18:43:00
Meta提出“可持续思维链”,让大模型在连续潜空间中推理
...建模为相机运动,ObjCtrl-2.5D 将三维轨迹表示为相机姿态序列,从而无需训练即可使用现有的相机运动控制 I2V 生成模型(CMC-I2V)进行物体运动控制
2024-12-13 09:19:00
英伟达开源NVLM 1.0屠榜多模态!纯文本性能不降反升
...过程的先验知识。 为了解决这个问题,研究人员在输入序列中插入一个基于文本的tile标签以标记图块的开始以及在整个平铺结构中的位置
2024-09-24 13:36:00
更多关于科技的资讯: