
回复
2024 年,vLLM 建立起了一个充满活力的开源社区。目前已有超过 15 位全职贡献者来自 6个以上的组织,20 多家机构作为核心利益相关方和赞助商,包括加州伯克利大学、 Neural Magic 、Anyscale 等顶级机构。双周例会的良好运作促进了社区透明度提升和战略合作的达成。
从年初仅支持少数模型,到年末已能支持近 100 种模型架构,覆盖几乎所有主流开源大语言模型、多模态模型(图像、音频、视频)、编码器-解码器模型等。特别值得一提的是,vLLM 开创性地为状态空间语言模型提供了生产级支持。
vLLM 实现了对主流 AI 硬件的全面支持:
2024 年,vLLM 推出了多项重要功能升级:
2025 年,vLLM 的核心目标是在单个 GPU 上实现 GPT-4 级别的性能,并在单个节点上支持更大规模模型的部署。为此,团队将重点优化以下方面:
随着 LLM 成为现代应用的核心,vLLM 计划为生产环境提供更完善的支持:
vLLM 将推出全新的 V1 架构,突出开放性和可扩展性:
大浪淘沙,vLLM成功的在大模型领域竞争中脱颖而出。vLLM 正在从一个简单的推理引擎,发展成为连接模型开发者、硬件供应商和应用开发者的开放平台。同时,vLLM不忘初心,重申使命:构建世界上最快、最容易使用的开源LLM推理和服务引擎。
期待2025年vLLM的表现,同时也希望有更多新的框架和工具诞生,加速AI推理的发展。
原文:https://blog.vllm.ai/2025/01/10/vllm-2024-wrapped-2025-vision.html