
多模态大语言模型(MLLMs)如何重塑和变革计算机视觉? 精华
本文介绍了多模态大型语言模型(MLLM)的定义、使用挑战性提示的应用场景,以及正在重塑计算机视觉的顶级模型。
目录
- 什么是多模态大语言模型(MLLM)?
- MLLM 在计算机视觉中的应用与案例
- 领先的多模态大型语言模型
- 未来展望
1. 什么是多模态大型语言模型(MLLM)?
简单来说,多模态大型语言模型(MLLM)是结合了大型语言模型(LLM)(如 GPT-3 [2] 或 LLaMA-3 [3])的推理能力,同时具备接收、理解并输出多种模态信息的能力。
示例:图 1 展示了一个医疗领域的多模态 AI 系统 [4]。它接收两个输入:
- 一张医学影像
- 一个文本查询,如:“这张影像中是否存在胸腔积液?”该系统输出一个关于该查询的预测答案。
在本文中,可能会简化“多模态大型语言模型”这一术语,直接称其为“多模态模型”。
1.1 人工智能中的多模态崛起
近年来,人工智能经历了重大变革,其中Transformer [5] 体系架构的兴起极大推动了语言模型的发展 [6]。这一架构由 Google 于 2017 年提出,并对计算机视觉领域产生了深远影响。
早期的示例包括视觉 Transformer(ViT) [7],它将图像分割为多个补丁,并将其作为独立的视觉 token 进行输入处理。
随着大型语言模型(LLM)的崛起,一种新的生成式模型,即多模态大型语言模型(MLLM),自然地诞生了。
如前面时间线图所示,2023 年,大多数科技巨头都推出了至少一种 MLLM。到了 2024 年,OpenAI 的 GPT-4o 在 5 月发布时成为行业热点。
1.2 MLLMs vs VLMs vs 基础模型
一些人认为 MLLMs 其实就是基础模型(Foundation Models)。例如,Google 的 Vertex AI 将 Claude 3、PaliGemma 和 Gemini 1.5 等多模态大型语言模型归类为基础模型。🤔
另一方面,视觉语言模型(VLMs)[8] 是多模态模型的一个子类别,它们集成了文本和图像输入,并生成文本输出。
MLLMs 和 VLMs 的主要区别在于:
- MLLMs 能处理更多模态,而不仅仅是文本和图像(如 VLMs)。
- VLMs 的推理能力较弱,而 MLLMs 具有更强的逻辑推理能力。
1.3 体系架构
如图 3 所示,MLLM 的架构主要分为三个部分:
- 模态编码器(Modality Encoder):该组件将视觉、音频等原始数据转换为紧凑的表示形式。通常使用预训练编码器(如 CLIP)进行迁移学习,以适配不同的模态输入。
- LLM 主干(LLM Backbone):语言模型负责生成文本输出,作为 MLLM 的“核心大脑”。编码器接收图像、音频或视频输入并生成特征,由连接器(模态接口)处理后输入 LLM。
- 模态接口(Modality Interface):连接编码器和 LLM,确保 LLM 能够理解不同模态的信息,并进行合理的推理和输出。
2. 多模态模型在计算机视觉中的应用
为了验证这些模型的能力,使用了 GPU 对三个顶级 MLLMs 进行测试,并使用了具有挑战性的查询(不再是猫🐱和狗🐶的简单示例)。
测试的 MLLMs:
- GPT-4o (OpenAI)
- LLaVA 7b (开源,基于 LLaMA)
- Apple Ferret 7b (Apple 开源)
2.1 目标遮挡情况下的物体计数
任务: 计算图像中出现的安全帽数量,并提供其位置(见图 4)。
- GPT-4o提供了详尽的场景描述,但给出的坐标有误。
- LLaVA仅检测到 3 个安全帽,并且没有正确识别遮挡部分的安全帽。
- Apple Ferret成功检测到 4 个安全帽,包括左侧被遮挡的那个!⭐️
2.2 自动驾驶:风险评估与规划
任务: 从自动驾驶汽车的角度评估风险,并检测车辆和行人(见图 5)。
- LLaVA未能识别前方的大卡车。
- GPT-4o在文本分析方面表现优异,但检测出的目标框位置错误。
- Apple Ferret是唯一一个准确检测出大部分物体并给出正确坐标的模型 ✅。
2.3 体育分析:目标检测与场景理解
任务: 分析足球比赛场景,包括球员计数、球和守门员位置估计,并预测进球可能性(见图 7)。
结果:
- 所有模型均未能正确检测所有球员,并区分不同球队。
- 相比之下,YOLOv8 这样的单模态检测模型表现更优。
这表明,MLLMs 在一些复杂任务上仍然存在局限性,它们尚未完全取代专门优化的计算机视觉模型。
下一步是否应该对 MLLMs 进行微调?🤔
3. 领先的多模态大型语言模型
