近两年来,国内热门的技术话题中,“百模大战”赫赫有名。自2020年起,中国进入了大模型加速发展期。据科技部新一代人工智能发展研究中心发布的报告显示,目前中国已发布10亿参数规模以上的大模型达79个。众多IT技术厂商投身于大模型的研究与训练,并将其应用于各个垂直领域。
大模型的出现推动AI发展进入新纪元,改变了AI的开发范式,但是这也对支持计算、存储、网络、数据检索以及调度容错的基础设施都提出了更高要求:
- 训练大模型需要庞大计算资源和高性能计算能力,要求企业投入大规模并行处理算力集群。这不仅挑战硬件,对整体架构设计也是严峻的考验。
- 为了应对训练大模型过程中需要的海量的训练集和数据,企业需要庞大而高效的存储设备。这对企业的存储基础设施、数据管理和系统设计都是巨大的挑战。
- 由于大模型需要访问庞大的数据集,企业需要确保数据库能够以高效的方式存储和检索所需的海量数据。传统的批处理方式早已无法满足对即时反馈和动态数据的要求。
…
只有解决、突破这些难题,企业才能发挥大模型的最佳能力,从而创造更大的价值。然而,要想解决这些问题则需要大量的资源和强大的基础设施来支撑,这对许多企业来说实现起来较为困难,如何破局?
答案将在11月25日,WOT全球技术创新大会2023·深圳站“AI超级底座”腾讯云专场中揭晓!
在本专场中,来自腾讯云的五位嘉宾将从异构计算、网络、云原生、存储和向量数据库五个方面介绍:
- 腾讯云优化大模型推理的实战经验及独门秘诀;
- 分享腾讯云如何为AI大模型的训练提供高速公路级别的网络通道;
- 探讨如何利用 Serverless 解决GPU 算力稀缺与训练 AI 应用的痛点;
- 畅谈AGI 场景下对存储的各类要求以及落地的实践经验;
- 解析腾讯云向量数据库的技术架构与能力。
旨在从多个角度为企业提供摆脱技术底座困境的破局之道。还有更多精彩内容和技术干货等您亲临现场,实地感受!
扫描海报二维码,立即报名WOT全球技术创新大会2023·深圳站腾讯云“AI超级底座”专场!