英特尔AI解决方案为最新Meta Llama 3.1模型提供加速

商务办公
目前,英特尔AI PC及数据中心AI产品组合和解决方案已面向全新Llama 3.1模型实现优化,OPEA亦在基于英特尔至强等产品上全面启用。未来,英特尔将持续投入软件优化,支持更多全新的模型与用例。


为了推动“AI无处不在”的愿景英特尔在打造AI软件生态方面持续投入为行业内一系列全新AI模型提供针对英特尔AI硬件的软件优化。今日,英特尔宣布公司横跨数据中心、边缘以及客户端AI产品已面向Meta最新推出的大语言模型(LLM)Llama 3.1进行优化,并公布了一系列性能数据

继今年4月推出Llama 3之后Meta于7月24日正式发布了其功能强大的AI模型Llama 3.1。Llama 3.1涵盖多个不同规模及功能的全新模型,其中包括目前可获取的、最大的开放基础模型—— Llama 3.1 405B4050亿参数目前,英特尔丰富的AI产品组合已支持上述最新模型,并通过开放生态系统软件实现针对性优化涵盖PyTorch及英特尔® PyTorch扩展包(Intel® Extension for PyTorch)、DeepSpeed、Hugging Face Optimum库和vLLM等。此外,企业AI开放平台(OPEA)亦为这些模型提供支持,OPEA这一全新的开放平台项目由LF AI & Data基金会发起,旨在聚合生态之力,推动创新,构建开放、多供应商的、强大且可组合的生成式AI解决方案。

Llama 3.1多语言大模型组合包含了80亿参数、700亿参数以及4050亿参数(文本输入/文本输出)预训练及指令调整的生成式AI模型。其每个模型均支持128k长文本和八种不同的语言。其中,4050亿参数的Llama 3.1模型在基本常识、可操作性、数学、工具使用和多语言翻译方面具有行业领先的能力。同时,该模型亦帮助开发者社区解锁诸如合成数据生成和模型蒸馏(Model Distillation等全新功能。

以下内容展示了英特尔的部分AI产品组合运行Llama 3.1模型的初步性能结果,包括英特尔®至强®处理器、搭载英特尔®酷睿™ Ultra处理器和英特尔锐炫™显卡的AI PC产品

运行Llama 3.1时展现出卓越性能

作为通用计算的基石,英特尔®至强®处理器为全球用户提供强大算力,现已通过各大云服务商面市。英特尔至强处理器在每个核心中均内置了英特尔®高级矩阵扩展(AMX)AI引擎,可将AI性能提升至新水平。根据基准测试,在第五代英特尔至强平台上1K token输入和128 token输出运行80亿参数的Llama 3.1模型,可以达到每秒176 token的吞吐量,同时保持下一个token延迟小于50毫秒。图1展示了运行支持128k长文本的80亿参数Llama 3.1模型,下一个token延迟可低于100毫秒。


图1. 基于第五代英特尔®至强®可扩展处理器的Llama 3.1推理延迟


由英特尔®酷睿™ Ultra处理器和英特尔锐炫™显卡驱动的AI PC可为客户端和边缘提供卓越的设备端AI推理能力。凭借诸如英特尔酷睿平台上的NPU,以及锐炫显卡上英特尔® Xe Matrix Extensions加速等专用的AI硬件,在AI PC上进行轻量级微调和应用定制比以往更加容易。对于本地研发,PyTorch英特尔PyTorch扩展包等开放生态系统框架可帮助加速。而对于应用部署,用户则可使用英特尔OpenVINO™工具包在AI PC上进行高效的模型部署和推理。AI工作负载可无缝部署于CPU、GPU以及NPU上,同时实现性能优化。


图2. 在配备内置英特尔锐炫显卡的英特尔®酷睿 Ultra 7 165H AI PC上,Llama 3.1推理的下一个token延迟



图3. 在使用英特尔锐炫A770 16GB限量版显卡的AI PC上,Llama 3.1推理的下一个token延迟


利用Llama 3.1和OPEA部署企业RAG解决方案

英特尔AI平台和解决方案能够有助于企业部署AI RAG。作为OPEA的发起成员之一,英特尔正帮助引领行业为企业AI打造开放的生态系统,同时,OPEA亦助力Llama 3.1模型实现性能优化

基于可组合且可配置的多方合作组件,OPEA为企业提供开源、标准化、模块化以及异构的RAG流水线(pipeline)。此次测试中,微服务部署于OPEA蓝图的每一支细分领域中,包括防护(Guardrail)、嵌入(Embedding)、大模型、数据提取及检索。端到端RAG流水线通过Llama 3.1进行大模型的推理及防护,使用BAAI/bge-base-en-v1.5模型进行嵌入,基于Redis向量数据库,并通过KubernetesK8s)系统进行编排。


图4:基于Llama 3.1的端到端RAG流水线,由英特尔Gaudi 2加速器和至强处理器提供支持


目前,英特尔AI PC及数据中心AI产品组合和解决方案已面向全新Llama 3.1模型实现优化,OPEA亦在基于英特尔至强产品上全面启用。未来,英特尔将持续投入软件优化,支持更多全新的模型与用例。

责任编辑:张诚
相关推荐

2016-10-31 09:20:11

Intel

2019-06-24 11:26:27

存储

2016-09-09 11:45:02

英特尔

2009-07-15 17:58:00

英特尔多核IDF

2012-01-12 14:39:10

云计算Intel

2017-09-28 11:46:32

英特尔

2015-06-25 20:11:35

英特尔合作伙伴融合云

2014-07-22 10:05:48

英特尔甲骨文至强处理器

2013-11-27 18:35:50

英特尔合作伙伴医疗

2010-04-15 16:39:31

英特尔行业信息化

2013-04-17 16:18:59

2013-09-05 11:21:50

英特尔技术升腾资讯

2013-09-09 16:53:58

大数据英特尔端到端
点赞
收藏

51CTO技术栈公众号