AI および HPC データセンター
フォールトトレラントソリューション
統合メモリー

AIモデルトレーニングとAI 推論に多数のユーザーとデータセットが関与する場合、1つの明確な指標が浮かび上がります。それはメモリ容量です。
インメモリデータベースの規模を拡大しようとする場合、1 つの CPU 分のメモリ容量が限界に達した時点で、常に CPU とメモリを追加するという方法がありました。
この方法では、ワークロードが複数のサーバーにオーバーフローするとすぐに、ネットワーク遅延とワークフローのオーバーヘッドにより、データアクセスの応答速度とアプリケーション通信パフォーマンスが急速に低下し始めるという問題があります。
ただし、データベースを実行している単一サーバーのメモリ容量を大きくすることで、ネットワーク遅延が発生する可能性は低くなります。Compute Express Link® (CXL®) がお役に立ちます。
PCIe Gen 5以降、メモリ拡張プロトコル層はCPUのメモリアーキテクチャと緊密に連携され、メインストリームのシングルソケットまたはデュアルソケットサーバに追加のメモリまたはメモリモジュールを追加可能になりました。
CXL はCPUの周辺I/Oバスを介してメモリを追加できるようにすることで、1台のサーバー内での メモリ容量の問題を解決するために設計されています。リアルタイムのデータ分析の取得と大量のメモリ処理が可能になります。
メモリヘッドルームを追加することで、永続ストレージへのオーバーフローを回避できます
256 GB の DIMM よりも、ビットあたりのコストが低い 96 GB または 128 GB DIMM を使用
高速リアルタイム dBASE を導入した場合のレイテンシーはミリ秒レベル
AI 推論における重要な意思決定には最新のデータを使用する

お客様の AI と HPC インフラストラクチャプロジェクトの目標達成をご支援します。私たちのチームは、高性能で可用性の高いエンタープライズソリューションを設計、構築、導入、管理し、お客様が画期的なイノベーションを実現できるよう支援します。