新的机会空间:ChatGPT、大语言模型与存储

人工智能 存储
生成式AI热度的快速升温将对IT行业产生影响,Forrester、Gartner等分析师和研究机构也在预测后续冲击。部分数据存储行业将凭借生成式AI获取巨大的潜在销售收益,本文将尝试对此做出分类。

如今,IT分析领域只有一个核心议题——大语言模型(LLM)机器学习和生成式AI(GAI)。去年11月底发布的ChatGPT聊天机器人在全球范围内引发巨大关注,一周内用户量突破100万;谷歌Bard和亚马逊Titan等类似的基础模型也同样掀起热潮。

此类生成式AI能够理解文本提示并输出有效答案,在被引入商业和公共部门的IT领域之后,这项技术有望从根本上提高搜索和分析质量。AI的普遍应用有望在未来十年内取代并/或提高各类知识工作者的生产力,包括客服中心、内部销售人员、会计师、律师和金融分析师。

生成式AI热度的快速升温将对IT行业产生影响,Forrester、Gartner等分析师和研究机构也在预测后续冲击。部分数据存储行业将凭借生成式AI获取巨大的潜在销售收益,本文将尝试对此做出分类。

William Blair发布的126页《生成式AI:自动化的新前沿》报告提供了大量信息。

硬件

DRAM – 运行大语言模型训练和推理的CPU/GPU服务器将迎来强劲需求,其中包括用于GPU的高带宽内存HBM。

PCIe – PCIe 4和5.0组件供应商应该为需求激增做好准备。

CXL – CXL 2.0内存池也将从大语言模型的火热中得到一剂强心针,包括CXL硬件供应商。因此,三星、SK海力士等DRAM扩展器、CXL交换机和其他组件厂商都将获得收益。

NAND与SSD – 需求必然越来越多,主要集中在NVMe、PCIe 4.0和5.0连接以及性能与容量的组合。因此QLC和高层数TLC NAND也将因此受益。所有NAND晶圆厂和SSD供应商都应关注这方面市场。

存储阵列 – 市场需要高容量和高速IO。AI/机器学习集群将需要PB级别的容量。大语言模型训练的运行需要配合高速数据集读取和检查点写入,这种并行访问必然依赖于硬件和软件。大语言模型的推理运行需要高读取访问率,以及到处理器的并行数据传输路径。

考虑到现实需求,这波热潮可能主要有利于使用NVMe协议和支持英伟达GPU服务器GPUDirect的文件访问全闪存阵列。DDN、NetApp、Pure Storage(AIRI)和VAST Data等供应商已经做好了战斗准备。Panasas也不会错过边缘位置的AI业务机会。相比之下,对象存储和块存储厂商的想象空间似乎就相对有限。

我们认为,尚不支持GPUDIrect的供应商应该抓紧补上这块短板。

软件

以CXL为重点的软件 – MemVerge和Unifabrix等供应商应该会迎来一波持续性的业务高潮。

数据分析 – 供应商需要抓紧时间引入大语言模型前端。

数据库、数据仓库和智能湖仓 – 供应商必须能够支持大语言模型所需要的向量嵌入。目前,为用户提供聊天机器人前端的需求已经非常强烈,这将使得非数据科学家和非资深SQL用户也能运行复杂分析。这些厂商还有机会将新成果引入ETL(提取、转换和加载)流程,将选定的数据快速输出至大语言模型以进行训练和推理。

数据管理工具 – 可以应用大语言模型技术分析自己的数据集,并为AI流程提供数据以扩大业务规模。

高速阵列 – 供应商可以将自己的软件移植到运行生成式AI模型的公有云,借此支持以本地/公有云混合的方式运行大语言模型的客户。

横向扩展并行文件系统 – IBM(Storage Scale)和WEKA等供应商在这方面处于有利地位,其现有客户正在应用生成式AI技术,新客户则迫切需要快速、大容量的文件访问软件。这部分业务空间同样相当可观。

间接受益方和不受影响方

云文件服务供应商 – 这类厂商可以使用云端存储的数据集为大语言模型提供数据,但数据需要从底层对象库转移至更快的访问存储介质;换言之,类似于某种形式的ETL。但也不排除AWS、Azure和谷歌等云服务商会提供类似于GPUDirect的方式,将数据从S3/Azure Blob等直接传递至GPU实例。

数据编排工具 – 这类厂商可以帮助客户编排大语言模型所需要的数据,借此获取间接收益。

数据保护与安全 – 供应商需要关注适用于管理设施的聊天机器人界面,借此更好地保护数据集并发现漏洞。特定领域的聊天机器人可以检查组织的攻击并确定相应保护措施。数据保护备份数据集则可以为大语言模型提供给定的ETL过程。

磁盘驱动器阵列 – 这类产品速度太慢,只要作为主存储闪存之外的次级存储形式。

生命周期管理工具 – 这类厂商需要研究聊天机器人界面如何帮助用户提高工作效率。

安全供应商 – 聊天机器人和其他AI技术的发展成熟,将帮助这类厂商高效检测、响应恶意软件和处理用户交互。

软件定义存储 – 这类厂商有可能被生成式AI的浪潮甩在身后,必须找到某种方法满足高性能访问需求才有可能分得额外业务空间。

存储管理员 – 聊天机器人能够提高他们的工作效率,或者由技术水平较低的员工完成原本对技能要求较高的工作。

磁带系统 – 这类归档系统速度过慢,无法与大语言模型提供数据,但在市场上仍有生存空间。

Web3 – 此类存储速度太慢,在大语言模型的世界中没有任何发挥余地。

责任编辑:姜华 来源: 至顶网
相关推荐

2023-04-27 13:46:08

语言模型ChatGPT人工智能

2023-09-06 12:11:21

ChatGPT语言模型

2023-10-11 12:32:53

AI模型

2023-08-10 08:46:52

2024-02-26 08:15:43

语言模型低代码

2023-03-14 13:04:57

ChatGPT人工智能

2023-04-07 14:01:18

ChatGPT人工智能

2024-02-19 07:10:00

视觉模型

2023-09-23 12:36:32

苹果模型

2023-11-27 11:34:59

ChatGPTAutoGPT

2023-07-10 08:00:00

2009-07-03 14:41:20

虚拟化云计算数据中心

2024-04-11 11:35:03

大语言模型LLMs

2024-07-22 09:10:04

大语言模型推荐系统人工智能

2023-04-28 15:41:08

模型ChatGPT

2023-03-26 00:24:15

2015-06-10 10:02:40

云存储虚拟化存储模型

2024-04-15 12:50:00

大型语言模型ReFT

2023-01-30 08:00:00

开发人工智能语言

2023-02-27 08:07:47

语言模型数据库故障
点赞
收藏

51CTO技术栈公众号