浙大开源“最懂Excel的GPT”!首次将结构化数据作为独立模态训练,刷榜提升40百分点

人工智能 新闻
这就是由LeCun高徒、浙江大学博导赵俊博领衔打造的TableGPT2。

大模型理解复杂表格,能力再次飞升了!

不仅能在不规则表格中精准找到相关信息,还能直接进行计算。

比如提问:

如果2022年出口总额的人民币计价比实际数值少了10%,请计算新的出口总额并与实际数据比较。

普通的大模型要么找不到正确的单元格信息,要么会计算错误。

而最新模型给出了正确回答:

实际出口总额为121324327.3663万元,减少10%后的出口总额为109191894.62967001万元。

图片

这就是由LeCun高徒、浙江大学博导赵俊博领衔打造的TableGPT2

它首次将结构化数据作为独立模态进行训练,这意味着大模型将不再依赖长上下文窗口,而是直接理解数据库、Excel、数仓中的数据,进而搞定SQL、分析、增删改查等相关任务。

图片

要知道,结构化数据已是无处不在,从BI(商业智能)到当下爆火的具身智能,大模型想要被更充分精准应用于这些领域,就不能再单纯以“文科生”的形式去学习。

图片

由此赵俊博等人耗时1年带来了更强大的TableGPT2。

在23个基准测试中,TableGPT2都表现优异,平均性能提高35.20%(7B模型)和49.32%(72B模型)。

目前团队已将两个版本的模型、一个Agent工作流以及RealTabBench中的一个子集开源。

关键在表格编码器

在TableGPT2之前,业界几乎没有人尝试将结构化数据作为独立模态。这主要有两方面原因——

第一,数据库中表格的空间关系存在特殊性。比如在图像视频上任意交换像素或者词的token,都会改变数据的本质,这说明两种模态之间具备空间依赖关系。但是在数据库的表格中,随机交换2行或2列数据,表格本身并不会变化。目前我们缺乏工具和手段去应对结构化数据这种特点。

第二,结构化数据存在异质性。比如在CV领域,RGB是很客观的表达,红色就是红色,蓝色就是蓝色,自然语言也是一样。但是在结构化数据中,同样一个表格字段下面的标记,在不同数据库里的意义可能截然不同。比如都是“1,2,3”,不同图表中表示的内容可能完全不同。所以这种“异质性”要求大模型对整体的库、表和字段都有理解,才能给出实际意义。这部分的对齐和传统LLM对齐不太一样。

图片

不过这些问题也不是完全不能解决。

赵俊博介绍,针对表格数据,如果掩码掉一个“子表”的一些单元格,加上字段、数据库的信息辅助,是可以才出来掩码信息的内容。这意味着尽管结构化数据的空间关系比较弱,但是本身还是有分布可以去学习的。

由此,研究团队提出了TableGPT2工作。

它基于Qwen2.5系列模型,使用超过860亿token进行预训练,给大模型喂入了超过59.38万张表和236万高质量的查询-表-输出样本,并创新性加入了一个表格编码器,专门用于读取和解释表格数据。

图片

模型主要框架包括以下几个部分:

  • 表格编码器
  • LLM解码器
  • 持续预训练
  • 监督微调
  • Agent工作流

表格编码器支持输入整个表格,生成每列的紧凑嵌入。

采用双维注意力机制,无需位置嵌入,同时进行分层特征提取,确保行和列的关系被有效捕捉。

再使用列对比方法,鼓励模型学习有意义的、结构感知的语义表示。

具体实现上,通过Q-former样式适配器对齐嵌入和文本输入,引入可学习的查询。

使用特殊标记(如”“和”“)区分表格特征与文本,这样模型可以同时处理两种模态。

应用联合指令微调来增强文本信息、列嵌入和模式单元数据之间的对齐,提高模型对表格数据的理解和解释能力。

值得一提的是,这个表格编码器可以单独使用。作者团队透露,后续还将发表相关论文。

图片

LLM解码器则基于Qwen-2.5模型,用于自然语言生成。

具体训练部分,预训练阶段首先针对模型的编码和推理能力进行加强。80%的预训练数据是有优质注释的代码,这和DeepSeek-v2的方法一致,以确保强大的编码能力。

同时还融入了大量推理数据和特定领域知识(比如金融、制造、生物等),以增强推理能力。

在数据处理层面,采用两级过滤策略。

文档层面将数据标记为54个不同类别,token层面利用RHO-1来微调高质量token。

图片

预训练部分的数据由86B个token组成。

图片

进行监督式微调主要是为了提高模型在BI特定任务中的表现。

作者构建了一个包含236万条样本的数据集,主要覆盖多轮对话、复杂推理、工具使用和高度特定的业务查询场景,包含代码生成、数据可视化、统计测试和预测建模等表格任务。

通过模糊化字段引用、匿名化字段名等方法增强模型在处理复杂任务时的鲁棒性。

最后来看Agent框架。

该框架由运行时prompt、代码沙箱和agent评估模块共同增强agent的能力和可靠性。

具体工作流如下。首先通过prompt模块处理输入查询,经过检索增强处理后将查询输入到主模型中。然后TableGPT2与VLM协作,生成工具调用、代码或其他相关操作。利用智能体的反思能力,观察中间结果,判断是否需要迭代。最终得到输出。

图片

部分基准下超越GPT-4o

实验阶段,作者将TableGPT2与其他大模型进行性能对比。

对比对象主要分为两类。

第一类为主流开源大模型,包括DeepSeek-Coder-V2-Lite-16B、YiCoder-9B-Chat、Qwen2.5-Coder-7B-Instruct和Qwen2.5-7B-Instruct。

第二类为针对表格相关任务进行微调或专门开发的模型。包括TableLLMs和CodeLlama-13B。

实验主要评估模型的6方面任务:表格理解、问答、事实论证、表格到文本、自然语言到SQL、整体评估。

图片

在不同benchmark上,各个模型表现如下。TableGPT2显著优于绝大部分其他模型,并在一些基准上超越GPT-4o。

图片

结果显示,TableGPT2的7B模型和72B模型的平均准确率分别提高了35.20%和49.32%。

此外,考虑到当下benchmark中针对表格异形问题、匿名问题或者治理较差的情况兼顾不佳,而实际落地中90%以上case都会出现类似情况。

作者还构建了一个新的benchmark—— RealTabBench。它更加关注实际应用中真实出现的问题。

结果显示在RealTabBench上,TableGPT2表现也是最好。

图片

另外,TableGPT2不会导致基座模型通用能力下降。

图片

LeCun高徒“砸锅卖铁”开发

该研究来自浙江大学计算机与科学技术学院计算创新研究所。

由助理教授、博士生导师赵俊博领衔。

图片

赵俊博于2019年获得纽约大学计算机专业博士学位,师从图灵奖得主、Meta首席AI科学家、纽约大学教授Yann LeCun。

他曾在Meta(原Facebook)人工智能实验室(Facebook AI Research)任研究员,期间深度参与了深度学习主流框架PyTorch和向量数据库Faiss的开发,并曾参与了内部通用对话机器人项目的前沿研究,该工作被视为大模型方向的早期产品化工作之一。

曾于2015年供职于英伟达半年时间,联合主持开发了全球首个端到端的自动驾驶解决方案,该工作由英伟达创始人Jensen Huang在次年的GTC 大会上做隆重介绍。

截至目前论文总被引数已超过20000次。

图片

去年,赵俊博主持研发了TableGPT。

这是全球首款对接关系数据库和数据仓的大模型产品。

图片

2024年,团队又继续“砸锅卖铁”,给TableGPT升级了V2版本。

图片

作为高校团队,开发一个大模型意味着算力上要砸钱、数据收集工程优化上要出人,这中间有非常多的坑,需要消耗巨大人力财力。

而且TableGPT2的开发还有着诸多难点。

首先在技术上,构建一个在table上单独模态的编码器很难弄。它独有的复杂结构和空间特点,以及字段语义信息对齐等,都有考验。

其次在数据方面。结构化数据怎么收集、清洗?标签体系怎么定制?如何把合成数据和人工数据合并?怎么做到成本可控,都是问题。

以及监督微调部分,不光需要输入输出样本对,而且需要收集表,专业领域的数据表还需要专业人士进行标注……

不过为啥还是要做呢?

因为他们看到了大模型理解结构化数据背后更广阔的应用前景。

赵俊博向量子位介绍,作为高校团队,他们现在的工作更多是为了“趟路”。

做结构化这件事,我们不会停留在Excel或者数据库上面,下一步技术发展肯定是往硬件和具身智能领域上走。

灵巧手的触觉信息,还有具身智能领域的视觉、听觉等,广义来说都属于结构化数据,我们还想往这个方向再往前一步。

与此同时,TableGPT2也会在产业落地上试水,希望能给从业者提供更好用的底座模型。

目前,团队已经开源了这项工作的多个成果,后续也会发布表格编码器的相关研究,感兴趣的童鞋可以进一步了解~

[1]论文地址:https://arxiv.org/html/2411.02059v1

[2]一个可用agent的git仓库: https://github.com/tablegpt/tablegpt-agent

[3]模型开源:https://huggingface.co/tablegpt/TableGPT2-7B 

责任编辑:张燕妮 来源: 量子位
相关推荐

2016-08-12 16:20:30

2009-01-08 09:26:53

AMD拆分AMD股份AMD股票

2015-11-25 13:58:40

2021-10-14 18:55:17

百分点科技DeepMatrix

2017-07-12 15:30:59

人工智能知识图谱深度学习

2023-03-31 09:08:33

百分点数据科学

2016-03-24 15:12:33

2017-12-15 14:52:55

百分点

2015-12-04 14:49:21

ios9

2024-12-06 14:19:50

2018-05-25 18:52:16

百分点,大数据

2018-05-25 18:49:27

百分点,AI,人工智能

2015-09-13 09:29:52

百分点

2013-09-03 10:11:37

Windows 8Mac OS X

2024-11-07 15:30:00

2023-05-04 08:07:38

微软Windows

2009-02-12 09:50:55

软件出口外包增长

2013-03-04 16:34:15

浏览器

2024-09-24 13:00:00

大语言模型AI

2013-06-03 09:57:52

浏览器
点赞
收藏

51CTO技术栈公众号