如今,由于云计算、AI等技术的出现,正在推动数据中心设计的结构性转变,CPU+GPU加速计算的平台成为主流,未来随着这些技术的不断普及,越来愈多的行业、企业将会产生类似需求。宝德早已意识到这一趋势,并率先推出了AI系列服务器产品以提升AI训练和AI推理性能。日前,NVIDIA发布的Ampere架构的第三代Tensor Core,更是带来了巨大的性能飞跃,可将AI训练时间从数周缩短到几小时,显著加快了推理速度,无疑助推了整个AI行业的发展。
宝德首台DGX A100交付应用,赋能客户业务
DGX A100是适用于所有AI负载的通用系统,能够将训练、推理、分析整合至易于部署的单一人工智能基础架构,为企业提供前所未有的运算密度、效能和弹性。相比于上代Volta伏特架构的V100计算卡,安培架构的A100核心在INT8推理性能、FP32训练性能均实现20倍提升,FP64高性能计算也提高2.5倍,是历史上进步最大的一次。
DGX A100系统集成了8个全新NVIDIA A100 Tensor Core GPU,具有320GB内存用以训练最大型的AI数据集,以及最新的高速NVIDIA Mellanox® HDR 200Gbps互连。借助于全新DGX的巨大性能飞跃,面对呈指数级速度增长的AI模型和数据,让企业保持领先地位。
宝德通过对本地客户业务的深度洞悉,以及在实际使用中对系统性能要求的深度理解,为客户提供定制化的DGX A100端到端解决方案。近日,宝德成功交付了首台DGX A100,再一次证明了宝德助力企业智能化转型的上乘实力。
宝德首台DGX A100交付应用于AI领域。该客户是一家视频产品和系统方案提供商,运用AI技术做机器视觉、人脸识别、体温检测等应用,涉及大量数据。在合作中,我们发现该客户的深度学习系统已经无法满足训练需求,因此,宝德基于DGX A100的优秀性能,打造了一套定制化解决方案。通过实地应用,客户的深度学习系统的GPU容量在原基础上进一步提升、GPU集群可并发处理两倍的AI训练任务、显存带宽也能达到1.6TB/s、互联能力更迅速并更具扩展性。
当宝德AI服务器“遇上”NVIDIA A100 GPU
NVIDIA A100 GPU中的第三代Tensor Core核心速度更快、灵活性更高,同时也更易于使用,最高性能可达每秒4亿次,同时通过新一代NVSwitch技术实现GPU间通信性能翻倍提升,最高达600GB/S。更强计算性能与更高的GPU间互联带宽可带来更高的AI计算效率,支撑用户进行更大数据规模、更复杂模型的AI训练。此外,NVIDIA A100 GPU拥有40GB的HBM2内存,内存带宽提高70%,达到1.6TB/s,可以承载更大的深度学习模型训练。
得益于敏捷而强大的产品设计开发能力,宝德在业界较早实现了对NVIDIA® Ampere架构GPU的快速跟进,即将推出多款基于NVIDIA® Ampere架构的AI服务器产品。
新一代产品拥有更好的兼容性,拓扑结构更灵活:PCIe插槽支持GEN4,支持4到10张PCIe版NVIDIA A100,最多8个NVMe驱动器,内存最大可以支持DDR4-3200,为AI客户提供专为应用场景极致创新优化设计的AI计算平台,进一步丰富宝德AI服务器产品阵列,以更好地应对当前海量数据爆发和复杂模型所带来的巨大计算挑战。同时与AI客户展开紧密合作,帮助其在语音、语义、图像、视频、搜索等各方面取得数量级的AI应用性能提升。