Phi-4-multimodal:图、文、音频统一的多模态大模型架构、训练方法、数据细节

人工智能
Phi-4-Multimodal 是一种参数高效的多模态模型,通过 LoRA 适配器和模式特定路由器实现文本、视觉和语音/音频的无缝集成。训练过程包括多阶段优化,确保在不同模式和任务上的性能,数据来源多样,覆盖高质量合成数据。它的设计体现了小型语言模型在多模态任务上的潜力。

Phi-4-Multimodal 是一种参数高效的多模态模型,通过 LoRA 适配器和模式特定路由器实现文本、视觉和语音/音频的无缝集成。训练过程包括多阶段优化,确保在不同模式和任务上的性能,数据来源多样,覆盖高质量合成数据。它的设计体现了小型语言模型在多模态任务上的潜力。

模型架构

模型架构模型架构

Phi-4-Multimodal 的基础是Phi-4-Mini语言模型,这是一个 3.8 亿参数的模型,设计为高效处理文本任务。架构包括:

  • Transformer层和维度:32 层Transformer,隐藏状态大小为 3072。
  • 效率技术:使用分组查询注意力(GQA),通过 24 个查询头和 8 个键/值头减少 KV 缓存大小至标准模型的三分之一,提升计算效率。
  • 分词器:使用 o200k 基础 tiktoken,分词表大小为 200,064,支持多语言和多模态输入。

为了扩展到多模态功能,模型通过 LoRA 适配器和模式特定路由器集成视觉和音频模式:

  • 视觉模式:

a.图像编码器:使用 SigLIP-400M,结合 LLM2CLIP 在图像-文本对上微调,分辨率为 448x448。SigLIP-400M 是一个视觉-语言模型,专门为图像理解优化。

b.项目器:一个 2 层 MLP,将视觉特征映射到文本嵌入维度 3072,确保视觉输入与语言模型的嵌入空间兼容。

c.LoRA 适配器(LoRA_V):添加到语言解码器的所有线性层,参数约 3.7 亿,用于监督微调阶段。LoRA 是一种参数高效的微调技术,通过低秩更新适配模型。

d.动态多裁剪策略:在训练中处理不同图像大小,裁剪数量计算为 ⌈H/C⌉ × ⌈W/C⌉,预训练最多 16 个裁剪,监督微调最多 36 个,必要时调整大小。

  • 语音/音频模式:

a.输入特征:80 维 log-Mel 滤波器组特征,帧率为 10ms,标记率为 80ms(每分钟 750 个标记),适合高效音频处理。

b.音频编码器:包括 3 个卷积层和 24 个符合块,注意维度为 1024,前馈维度为 1536,16 个注意头,子采样率为 8。符合块结合了自注意力机制和卷积,适合捕获音频的时序和频率特征。

c.项目器:一个 2 层 MLP,将 1024 维语音特征映射到 3072 维文本嵌入,确保音频输入与语言模型的嵌入空间兼容。

d.LoRA 适配器(LoRA_A):应用于所有注意和 MLP 层,秩为 320,参数约 4.6 亿,通过低秩更新适配音频处理。

  • 多模态集成:模型采用 LoRA 适配器的混合设计,通过模式特定路由器选择适当的适配器,处理文本、视觉和语音/音频输入,无干扰地支持多模态推理。这是一种参数高效的方法,保持基础语言模型的完整性,同时添加新功能。

总参数量为 5.6 亿,相比 Phi-4-Mini 的 3.8 亿,增加了约 1.8 亿参数,主要用于视觉和音频编码器及 LoRA 适配器。上下文长度为 128K 标记,受益于 GQA 和其他效率技术,适合处理长序列输入。

训练方法

Phi-4-Multimodal 的训练过程分多个阶段,针对不同模式和任务优化,确保模型在多模态任务上的性能。训练步骤如下:

  • 基础语言模型预训练:

a.在 5 万亿个高质量标记上预训练,包括网络数据和合成数据。数据来源经过精心挑选,确保覆盖多种语言和任务,如功能调用、总结和指令跟随。

  • 视觉训练:

a.阶段 1:项目器对齐- 使用标题数据训练项目器,确保视觉特征与语言模型嵌入空间的对齐。

b.阶段 2:联合视觉训练- 在完整数据集上训练项目器和编码器,针对 OCR 和密集理解任务,数据集包括图像-文本对、OCR PDF 和现实图像。

c.阶段 3:生成视觉-语言训练- 在解码器上训练 LoRA,使用单帧 SFT 数据,开发生成能力,数据集包括公共和内部多模态数据集,如通用图像、图表/表格/图表、PowerPoint、OCR、多图像和视频。

d.阶段 4:多帧训练- 视觉编码器冻结,在多帧 SFT 数据上训练,上下文长度为 64k,适合处理多帧场景。

  • 语音/音频训练:

a.预训练:使用 200 万小时匿名语音-文本对,覆盖 8 种语言(中文、英语、法语、德语、意大利语、日语、葡萄牙语、西班牙语),训练音频编码器和项目器,解码器冻结,初始化为自动编码解码(AED)ASR 模型。

b.后训练:使用 1 亿个精选 SFT 样本更新项目器和 LoRA_A,50,000 步。最大音频长度为总结的 30 分钟(22,500 个标记),其他任务的 30 秒(375 个标记),包括 ASR(40,000 小时,2,800 万 SFT 示例)、AST(30,000 小时,2,800 万 SFT 示例,7 种语言到/从英语,CoT)、SQA/SQQA(2,600 万 SFT 示例,合成 QA 对,TTS 生成查询)、总结(100 万 SFT 示例,英语,多说话者,GPT-4 查询)和音频理解(1,700 万 SFT 示例,公共音频/音乐,GPT-4 Q&A)。

  • 视觉-语音联合训练:

a.在视觉和语音单独训练后,冻结语言基础、音频编码器和项目器,微调视觉适配器 LoRA_V、编码器和项目器,使用视觉-语音 SFT 数据加上语言/视觉后训练数据,确保多模态协同工作。

  • 推理训练:

a.阶段 1:预训练- 在 600 亿推理链式思维 CoT 标记上预训练,从前沿 LLM 中提取,通过拒绝采样过滤错误输出,确保数据质量。

b.阶段 2:微调- 在 20 万个高质量 CoT 样本上微调,覆盖不同领域,如数学、编码和逻辑推理。

c.阶段 3:直接偏好优化(DPO)训练- 在 30 万个偏好样本上应用,将错误输出标记为“非首选”,纠正输出为“首选”,通过人类反馈进一步对齐模型。

训练数据细节

Phi-4-Multimodal 是一种由 Microsoft 开发的先进多模态大模型,能够处理文本、图像和音频输入并生成文本输出。其训练数据细节涵盖语言、视觉-语言、视觉-语音和语音/音频四个主要类别,数据来源包括网络、合成和真实数据,数据量庞大且经过精心优化。

语言训练数据

语言训练是 Phi-4-Multimodal 的基础,基于 Phi-4-Mini 语言模型的预训练和后训练数据:

  • 预训练数据:

a.数据来源:高质量网络数据和合成数据,特别强调数学和编码数据集以提升复杂推理能力。

b.数据量:5 万亿个标记(tokens)。

c.描述:合成数据通过精心策划,确保覆盖高价值的任务,如数学竞赛问题和编码任务,显著提升模型在这些领域的表现。

  • 后训练数据:

a.功能调用、总结和代码完成:使用额外数据进行后训练,具体数量未公开,但涉及多种任务。

b.推理训练:使用 600 亿个推理链式思维(CoT)标记,从前沿大型语言模型(LLM)中提取,通过拒绝采样过滤错误输出,确保数据质量。

c.微调:在 20 万个高质量 CoT 样本上微调,覆盖数学、编码和逻辑推理等不同领域。

d.直接偏好优化(DPO):在 30 万个偏好样本上应用,将错误输出标记为“非首选”,纠正输出为“首选”,通过人类反馈进一步对齐模型。

视觉-语言训练数据

视觉-语言训练扩展了模型处理图像和相关文本的能力,分为预训练和监督微调(SFT)两个阶段:

  • 预训练数据:

a.数据类型:包括图像-文本对、图像接地数据、OCR PDF、现实图像和图表理解数据。

b.数据量:文本部分约 0.5 万亿标记,具体图像数量未公开。

c.描述:数据覆盖广泛,包括公共和内部多模态数据集,最高图像分辨率达 1344x1344,适合 OCR 和密集理解任务。

  • 监督微调(SFT)数据:

a.数据类型:通用图像、图表/表格/图表、PowerPoint、OCR、多图像、视频和安全数据集。

b.数据量:文本部分约 0.3 万亿标记。

c.描述:数据来源包括公共和内部数据集,确保生成能力和多模态任务性能。

视觉-语音训练数据

视觉-语音训练数据是合成生成的,基于视觉-语言 SFT 数据:

  • 数据创建方法:复用视觉-语言 SFT 数据,通过文本转语音(TTS)引擎生成语音查询,基于词错误率(WER)过滤质量。
  • 数据量:具体数量未公开,但依赖于视觉-语言 SFT 数据规模(约 0.3 万亿标记文本部分)。

语音/音频训练数据

语音/音频训练数据分为预训练和后训练两个阶段,数据量巨大,覆盖多种任务:

  • 预训练数据:

a.数据来源:200 万小时匿名语音-文本对,覆盖 8 种语言:中文、英语、法语、德语、意大利语、日语、葡萄牙语、西班牙语。

b.描述:用于训练音频编码器和项目器,确保语音特征与语言模型嵌入空间对齐,初始化为自动编码解码(AED)ASR 模型。

  • 后训练数据:

a.SFT 示例:1.7 百万(公共音频/音乐,GPT-4 Q&A)。

b.SFT 示例:100,000(英语,多说话者,GPT-4 查询)。

c.SFT 示例:2.6 百万(合成 QA 对,TTS 生成查询)。

d.数据量:30,000 小时。

e.SFT 示例:2.8 百万(7 种语言到/从英语,包含 CoT)。

f.数据量:40,000 小时。

g.SFT 示例:2.8 百万。

h.自动语音识别(ASR):

i.自动语音翻译(AST):

j.语音问答(SQA/SQQA):

k.总结(SSUM):

m.音频理解(AU):

训练数据汇总表:

图片

一个意想不到的细节是,语音预训练数据高达 200 万小时,相当于连续录音 228 年。

性能

图片

参考文献:

  • Phi-4-Mini Technical Report: Compact yet Powerful Multimodal Language Models via Mixture-of-LoRAs,https://arxiv.org/pdf/2503.01743
责任编辑:武晓燕 来源: 大模型自然语言处理
相关推荐

2025-02-27 09:51:04

2024-12-12 00:25:09

2024-12-18 18:57:58

2024-07-23 10:34:57

2024-11-13 09:39:13

2025-01-08 08:21:16

2025-02-27 13:45:00

2023-11-23 18:19:15

腾讯腾讯混元Angel

2023-08-14 08:46:54

AI论文

2024-06-03 06:49:53

2024-09-13 17:02:29

2022-02-28 10:31:22

人工智能视觉检测

2025-02-10 07:10:00

多模态embeddingsAI

2024-10-14 13:20:00

2024-09-23 08:20:00

模型训练

2025-01-21 08:00:00

2024-12-30 00:01:00

多模态大模型Python

2025-02-28 09:32:00

2023-06-06 14:09:32

模型开源
点赞
收藏

51CTO技术栈公众号