AI および HPC データセンター
フォールトトレラントソリューション
統合メモリー

Compute Express Link® (CXL) のメモリー拡張およびプーリングテクノロジーにより、従来のコンピューティング限界を克服し、比類のないパフォーマンス、スケーラビリティ、さらにコスト効率を実現します。
「メモリーウォール」として知られるプロセッサとメモリー間のパフォーマンス ギャップの拡大は、人工知能のようなメモリを大量に消費するアプリケーションでは特に大きな課題です。このようなアプリケーションでは、大規模モデルのトレーニングには超高速のメモリ帯域幅が必要であり、増加する需要に追いつくことができません。
GPU とメモリー間 (または複数の GPU 間) でデータ転送にかかる時間が重大なボトルネックとなり、トレーニングが長時間化する可能性があります。
トレーニング済みのモデルを使用して推論を行う場合でも、AIモデルがメモリーからデータにアクセスして予測を行う必要があるため、メモリーウォールによってレイテンシが増加する可能性があります。
メモリーシステムが推論要求の処理要求に対応できない場合、AI システム全体のスループットが低下する可能性があります。
多数のユーザーに対応するためにAIモデルを拡張すると、メモリー制限に直面する可能性があり、解決にはより多くのハードウェアと複雑なインフラストラクチャが必要になります。

プロセッサは、メモリーが必要なデータの供給できる速度をはるかに上回る命令実行速度を実現しています。この現状を受け、Alibaba、Cisco、Dell EMC、Facebook、Google、Hewlett Packard Enterprise、Intel Corporation、Microsoftといった業界リーダーは、SMART Modular Technologiesと提携し、新たな利用モデルにおける画期的なパフォーマンスを実現する技術仕様を策定しました。同時に、データセンターアクセラレータやその他の高速化のためのオープンエコシステムをサポートし、パフォーマンスのボトルネックを解消しました。
CXLは、サーバーにおけるメモリーとコンピューティングリソースの管理方法を再定義する 業界標準のオープンプロトコルです。CXL は、CPUまたはGPUとメモリー間の高速かつ低レイテンシの接続を可能にすることで、データ処理における従来のボトルネックを解消し、AIを活用した新しいアプリケーションでますます利用が拡大しているデータ集約型ワークロードのスケーラビリティとパフォーマンスを新たなレベルに引き上げます。
スピードと正確性は競争優位性を生み出します。より迅速な競争力分析を求める組織にとって、CXLは画期的なメリットをもたらします。
• より高速なデータ処理:遅延を最小限に抑えながら、大規模データセットをリアルタイムに分析します。
• インフラストラクチャ効率の向上: 運用コストを削減しながら、リソースの使用率を最適化します。
• スケーラブルで将来を見据えたソリューション: シームレスに拡張可能なメモリーにより、コストのかかるインフラストラクチャ改修をすることなく、変化し続けるデータ需要に対応します。
ペンギンソリューションズの新しいアドインカード (AIC) ファミリは、高密度DIMM AICのクラスで初めてCXLプロトコルを採用しています。 当社の4-DIMMおよび8-DIMM製品は業界標準のDDR5 DIMMをサポートし、サーバーおよびデータセンターの設計者は、使い慣れた導入が容易なフォームファクターを使用して、最大4 TBのメモリを迅速に追加できます。
当社の新しいAIC により、コスト効率の高い 64 GB RDIMM を使用して、サーバーに CPU あたり最大 1 TB のメモリーを搭載できます。サプライチェーンにおける選択肢も広がり、市場の状況に応じて、高密度のRDIMMをより多くの低密度モジュールに置き換えることで、コンピューティング能力やAIシステムのパフォーマンスを犠牲にすることなく、システムメモリーコストを削減できます。
AI、HPC、機械学習では、従来のサーバーが対応できる容量を超える大量の高速メモリーを必要としていますが、従来のDIMMベースのパラレルバスインターフェイスを介してシステムメモリーを追加しようとすると、CPUのピン制限により問題が生じます。
CXLベースのソリューションはピン効率が高く、メモリー拡張の可能性が広がります。当社の4-DIMM および 8-DIMM AICは高度なCXL コントローラーを使用して構築されており、新しいコンピューティング集約型ワークロードにおけるメモリ帯域幅のボトルネックと容量の制約を排除します。
ペンギンソリューションズの CXL 製品 の詳細と、メモリの壁を低コストで拡張し、AIイニシアチブを活性化し、データをより迅速に実用的なインサイトに変換する方法について、 今すぐお問い合わせください

AI メモリーウォールとは、CPUとアクセラレータの処理速度が利用可能なメモリ帯域幅と容量を上回った場合に発生するパフォーマンスのボトルネックを指します。このボトルネックは、効率的にトレーニングして展開できるAI モデルの規模と複雑さを制限します。
AI メモリーウォールをスケーリングするには、メモリーとプロセッサ間のデータ転送効率を改善してレイテンシを削減し、AI モデルのトレーニングのような計算量の多いタスクのボトルネックを解消する必要があります。
AI のトレーニングと推論には大量のデータセットの処理が必要であり、特に大規模なディープラーニングモデルの場合、メモリーアクセスの遅延によりスループットが制限され、パフォーマンスが低下する可能性があります。
AI モデルの規模と複雑さが増すにつれて、トレーニングと推論時間を管理しやすく費用対効果の高いものにするには、CXL テクノロジーなどのスケーラブルなメモリーソリューションを使用する戦略が不可欠です。
CXL は、CXL接続メモリーを使用してメモリー容量と帯域幅を拡大することでメモリーウォールを解決し、プロセッサが処理速度よりも速くデータにアクセスできるようにします。これは、高速PCIeインターコネクトを活用して、共有メモリプールへのコヒーレントで低遅延のアクセスを提供することによって実現されます。

今すぐお問い合わせいただき、メモリー容量を低コストでスケーリングしながら、メモリ拡張とプール機能を最大限に活用できるように支援する方法の詳細をご相談ください。