英特尔构建全球最大的神经形态系统,以促进更可持续的AI

人工智能
英特尔实验室神经形态计算实验室主任Mike Davies表示:“当今AI模型的计算成本正以不可持续的速度增长。因此,我们开发了Hala Point,它结合了深度学习效率与新颖的大脑启发式学习和优化能力。我们希望Hala Point的研究能够推动大规模AI技术的效率和适应性。”

英特尔宣布,已经建造了世界上最大的神经形态系统,代号为Hala Point,这一大规模神经形态系统最初部署在桑迪亚国家实验室,采用英特尔的Loihi 2处理器,旨在支持未来以大脑启发的AI研究,并解决当前AI在效率和可持续性方面的挑战。Hala Point对英特尔第一代大规模研究系统Pohoiki Springs进行了架构改进,神经元容量提高了十倍以上,性能提升了多达十二倍。

英特尔实验室神经形态计算实验室主任Mike Davies表示:“当今AI模型的计算成本正以不可持续的速度增长。因此,我们开发了Hala Point,它结合了深度学习效率与新颖的大脑启发式学习和优化能力。我们希望Hala Point的研究能够推动大规模AI技术的效率和适应性。”

Hala Point是第一个在主流AI工作负载上展示最先进计算效率的大规模神经形态系统。性能测试显示,它能支持高达20千万亿次(20 petaops)运算能力,当执行常规深度神经网络时,效率超过每瓦特15万亿次8比特运算(TOPS/W),这一性能不仅媲美,甚至超过了基于图形处理单元(GPU)和中央处理单元(CPU)构建的架构。Hala Point的独特能力未来可实现AI应用的实时连续学习,例如科学和工程问题解决、物流、智慧城市基础设施管理、大型语言模型(LLMs)及AI代理。

如何使用:桑迪亚国家实验室的研究人员计划利用Hala Point进行先进的大脑规模计算研究。该机构将专注于解决设备物理学、计算机架构、计算机科学和信息学领域的科学计算问题。

桑迪亚国家实验室的Hala Point团队负责人Craig Vineyard表示:“与Hala Point合作提升了我们桑迪亚团队解决计算和科学建模问题的能力。利用这种规模的系统进行研究将使我们能够跟上AI在从商业到国防再到基础科学等领域的发展。”

目前,Hala Point是一个研究原型,将推动未来商业系统的能力发展。英特尔预计,此类经验教训将带来实际进展,例如使大型语言模型(LLMs)能够持续从新数据中学习。这样的进展有望显著减轻普遍部署AI的不可持续的训练负担。

为什么这很重要:近期将深度学习模型扩展到数万亿参数的趋势揭示了AI面临的巨大可持续性挑战,并突显了在硬件架构的最底层进行创新的必要性。神经形态计算是一种全新的方法,它借鉴了神经科学的见解,将存储和计算与高度精细的并行性结合起来,以最小化数据移动。在本月的国际声学、语音和信号处理会议(ICASSP)上发布的结果中,Loihi 2在效率、速度和适应性方面展示了数量级的增益,这些增益适用于新兴的小规模边缘工作负载。

Hala Point在其前身Pohoiki Springs的基础上进行了许多改进,现在将神经形态性能和效率提升带到了主流的传统深度学习模型中,特别是那些处理实时工作负载如视频、语音和无线通信的模型。例如,爱立信研究院正在利用Loihi 2优化电信基础设施效率,这一点在今年的世界移动通信大会上得到了强调。

关于Hala Point:基于Loihi 2神经形态处理器构建的Hala Point,采用了启发于大脑的计算原理,例如异步的、基于事件的脉冲神经网络(SNNs)、集成化的内存与计算以及稀疏且持续变化的连接,以实现能耗和性能的数量级提升。神经元之间直接通信,而非通过内存,从而减少了整体功耗。

Hala Point集成了1152个在Intel 4工艺节点生产的Loihi 2处理器,安装在一个六机架单元数据中心机柜中,其大小相当于一个微波炉。该系统支持多达11.5亿个神经元和1280亿个突触,分布在140,544个神经形态处理核心上,最大功耗为2600瓦。它还包括2300多个嵌入式x86处理器,用于辅助计算。

Hala Point将处理、内存和通信通道集成在一个高度并行化的结构中,提供总共16PB/s的内存带宽、3.5PB/s的核间通信带宽和5TB/s的芯片间通信带宽。该系统能够每秒处理超过380万亿次8位突触运算和超过240万亿次神经元操作。

应用于生物启发的脉冲神经网络模型,该系统可以以人脑速度的20倍执行其全部11.5亿神经元的容量,并在较低容量下达到高达200倍的速度。虽然Hala Point并非旨在进行神经科学建模,但其神经元容量大致相当于一只猫头鹰的大脑或一只卷尾猴的大脑皮层。

基于Loihi的系统能够在能耗低100倍的同时,比传统的CPU和GPU架构快50倍进行AI推理和解决优化问题。通过利用最高10:1的稀疏连接和事件驱动活动,Hala Point的初步结果显示,该系统能够在不需要将输入数据批处理(GPU常用的一种优化,会显著延迟实时到达的数据处理,如摄像机视频)的情况下,达到高达15 TOPS/W的深度神经网络效率。虽然还在研究阶段,未来能持续学习的神经形态大型语言模型(LLMs)可能通过消除定期使用日益增长的数据集重新训练的需求,节省千兆瓦时的能源。

接下来:将Hala Point交付给桑迪亚国家实验室标志着Intel计划与其研究合作伙伴共享的一系列新型大规模神经形态研究系统的首次部署。进一步的开发将使神经形态计算应用克服限制AI能力在真实世界实时部署的功耗和延迟约束。

与全球包括顶尖学术团体、政府实验室、研究机构和公司在内的200多个Intel神经形态研究社区(INRC)成员一道,Intel正努力推动以大脑为灵感的AI的边界,并在未来几年内将这项技术从研究原型推进至行业领先的商业产品。

责任编辑:姜华 来源: 企业网D1Net
相关推荐

2009-06-17 17:49:06

英特尔云计算网络

2023-11-20 13:06:52

2009-02-20 10:14:32

NehalemCore i7英特尔

2010-10-14 09:18:42

2013-11-05 10:03:52

英特尔商业研究超级计算机

2022-07-28 11:19:11

物联网IoT

2014-04-03 14:23:02

英特尔统一固件管理套件

2009-06-25 18:07:17

HPC高性能运算英特尔

2024-09-03 09:06:42

2024-05-13 15:14:31

AI PC英特尔
点赞
收藏

51CTO技术栈公众号