AI 和 HPC 数据中心
容错解决方案
集成内存
随着数据密集型工作负载的复杂性和规模持续增长,可以轻松且经济高效地扩展数据中心、云服务和 HPC 提供商的计算资源内存。
在不增加更多处理能力的情况下增加内存容量,同时减少延迟,这改变了游戏规则。简化大型数据集的实时处理,通过内存扩展加快复杂算法和高级分析的执行速度。
由于人工智能 (AI) 和机器学习 (ML)、图像处理、内存数据库和实时分析等现代应用消耗的内存比以往任何时候都多,因此需要一种新的解决方案来满足对低延迟、高带宽内存的需求。
几十年来,计算机系统一直使用RDIMM内存模块直接连接到主机主板和使用并行总线连接到CPU。扩大系统可以使用的模块数量需要在CPU上添加内存控制器和引脚,这很快就会变得令人望而却步。
Compute Express®(CXL®)是一种高带宽、低延迟、CPU到设备的互连标准,它建立在现有PCI Express®(PCIe®)基础上,利用PCIe物理和电气接口,同时添加其他传输协议。
在以毫秒为中心的行业中,对高容量、高性能可扩展存储器解决方案的需求空前高涨。
作为在当前系统架构下扩展内存的更经济的选择,CXL 是一种行业标准的开放协议,用于主机加速器之间的高速和低延迟通信,越来越多地用于 AI 和 ML 等新兴应用。
CXL 已成为改变游戏规则的解决方案,它可以实现经济实惠的内存扩展、灵活扩展、提高性能,并允许将内存资源从处理器中分离出来。该技术消除了传统的内存限制,可以以前所未有的效率实时处理海量数据集。
这种方法可以实现更灵活和可扩展的内存架构,在这种架构中,可以根据需要添加或移除存储器设备,而无需更换或升级整个系统。
切换为启用内存池以实现高效的内存分配。将您的设备分区为多个逻辑设备 (MLD),允许多达 16 个主机同时访问内存的不同部分。
CXL 提供低延迟、高速内存访问,缩短了内存密集型工作负载的响应时间。CXL 内存扩展允许以更低的成本获得更高的容量。
实时摄取和处理大量数据,以加快计算分析和仿真处理,缩短周转时间。受益于 CXL 的用例包括:
多年的经验
GPU 已部署和管理
GPU 运行时间
内存池是将来自多个系统的内存容量组合成固定大小的块的过程,这些块可以在需要时动态分配。使用CXL等技术,内存池可实现对该共享内存池的低延迟访问,从而提高工作负载的利用率和性能。
内存扩展为单个系统增加了容量,而内存池使多个系统能够共享一个集中的内存池,以提高资源利用率。
AI 模型训练、大规模仿真和数据密集型分析可从扩展 GPU 内存中获得最大收益,与基于 CXL 的内存池配合使用时尤其如此。
通过减少内存瓶颈和实现对共享内存的低延迟访问,CXL 池可确保更快地处理 AI、HPC 和分析工作负载的数据。
是的,CXL 专为与基于 PCIe 的服务器兼容而设计,无需进行昂贵的大规模硬件大修即可进行内存扩展和池化。
立即联系我们,详细了解我们如何帮助您制定集成的内存池和扩展计划,以最大限度地提高处理能力,同时降低系统内存成本。