人工知能 (AI) のワークロードは驚異的な速度で進化しており、従来のコンピューティングインフラストラクチャにかつてないほどの負担をかけています。主な課題は 現代のAI の膨大なメモリーフットプリントと大量のデータを必要とする性質にあります。従来の相互接続はパフォーマンスのボトルネックとなり、プロセッサーが必要とする膨大な量のデータに効率的にアクセスできるかどうかが制限されます。

コンピュート・エクスプレス・リンク (CXL) は変革をもたらすソリューションとして登場しました。これは、こうしたパフォーマンスのギャップを埋め、より効率的なリソース利用を可能にし、次世代のAI システムへの道を開くように設計されたオープンな業界相互接続です。

現代の AI を阻むボトルネックは何でしょうか?

今日の AI と機械学習のワークロードは、従来のサイロ化されたアーキテクチャの限界を露呈する インフラ特有の課題 を明らかにします。

これらの問題はパフォーマンス、スケーラビリティ、コストに直接影響を及ぼします。インフラストラクチャーの課題には、次のようなものがあります。

  • 大量のメモリーフットプリント: 大規模モデルのトレーニングと推論にはテラバイト単位のメモリが必要で、多くの場合、単一のサーバーノードで利用可能な容量を超えています。
  • データ転送遅延: CPU、GPU、専用の AI アクセラレータは連携して動作する必要がありますが、それらの間のデータ転送のボトルネックにより遅延が発生し、全体的なパフォーマンスが低下します。
  • リソースの非効率性: サイロ化されたインフラストラクチャーは、しばしばリソースの無駄遣いにつながります。特定のジョブに必要なメモリが不足しているためにサーバー上のコンピューティングコアが十分に活用されていない、あるいはその逆の状況が発生する可能性があり、投資収益率の低下につながります。
  • ストレージ統合の遅延: 高速ストレージは拡張メモリー層としてアクセス可能である必要がありますが、ストレージとシステムメモリー間で大規模なデータセットやモデルのチェックポイントを移動することは、依然として時間がかかるプロセスです。

従来の PCIe ベースのアーキテクチャでは、メモリーのコヒーレンス(一貫性)不足とレイテンシーの高さにより、これらの問題を完全には解決できません。 CXL は、これらの欠点に対処するために特別に開発されました。

コンピュート・エクスプレス・リンクとは

CXL は、PCIe物理層上に構築された高速でキャッシュコヒーレントな相互接続プロトコルです。同一の物理接続を使用しながらも、ヘテロジニアスコンピューティングのニーズに特化して設計されています。CPU、GPU、アクセラレーター、およびメモリーデバイスが効率的かつ一貫してメモリーを共有できるようにする統合インターフェイスを提供します。

そのコア機能は、次の 3 つの異なるプロトコルによって実現されます。

  • CXL.io: このプロトコルは、標準の I/O 通信、デバイスの検出、および構成を処理し、一般的な PCIe 規格とほぼ同様に機能します。
  • CXLキャッシュ: このプロトコルにより、AI アクセラレータなどの接続デバイスは、ホスト CPU からのメモリーをコヒーレントにキャッシュできます。これにより、複雑なソフトウェア管理を行わなくても、システム全体でデータの一貫性が確保されます。
  • CXL.mem: このプロトコルにより、ホスト CPU は外部デバイスに物理的に接続されているメモリーにアクセスできるようになり、実質的にそれを自身のメモリー空間の一部として扱うことができます。

これらの プロトコルを組み合わせることで、構成可能な分散型およびメモリー中心のアーキテクチャーを構築するための強力で柔軟なフレームワークが作成されます。

CXL はAI インフラをどのように変革するのか?

CXL は、コンピューティング、メモリー、周辺機器間の固定的な障壁を打破することで、AI ワークロード向けシステムの構築と管理において、より動的で強力なアプローチを可能にします。

1.メモリプーリングと拡張 AI

個々のノードのメモリー不足が原因でトレーニングジョブが失敗することがよくありますが、CXL は メモリーをプールしてデバイス間で共有することでこの問題に対処します。これにより、必要に応じてさまざまなプロセッサーやアクセラレーターに動的に割り当てることができる大規模なメモリープールを作成できます。さらに、CPUとGPUは、冗長なデータコピーを必要とせずに、単一の統合メモリープールを共有できます。このアプローチにより、メモリーの無駄が削減され、リソースの使用率が向上することで、総所有コスト (TCO) を大幅に削減します。

2.最適なパフォーマンスを実現する階層型メモリー

AI システムは、パフォーマンス重視の高帯域幅DRAMと、容量重視のよりコスト効率の高いメモリー階層の組み合わせの恩恵を受けます。CXL は、パフォーマンスが重要な処理には高速DRAMをプライマリー層として使用し、低コストで大容量の第2層としてCXLベースのメモリーエクスパンダーを接続することで、このアーキテクチャをシームレスに実現します。これにより、階層間のデータ移行がスムーズになり、速度、容量、コスト効率のバランスを取ることができます。

3.コンポーザブル・ディスアグリゲーテッド・インフラストラクチャ (CDI) の有効化

CXL は、コンピューティング、メモリー、ストレージのリソースを分散化し、特定のワークロードに合わせてオンデマンドでプロビジョニングできるコンポーザブルシステムの基盤技術です。これにより、特定のタスクに必要なアクセラレーションとメモリーの正確な量を柔軟に割り当て、ハードウェアを過剰にプロビジョニングすることなく、AI 推論クラスターのメモリーリソースを動的にスケーリングできます。その結果、変化するアプリケーションの需要に適応できる、よりアジャイルで応答性の高いデータセンターのCDIが実現しました。

CXL がAI にもたらす戦略的メリットとは?

CXL の導入は、AI システムの構築または導入を行う全ての企業に明確なメリットをもたらします。

  • パフォーマンススケーリング: CPU、GPU、メモリー間の重大なボトルネックを軽減しハードウェアのパフォーマンスを最大限に引き出します。
  • 効率の向上: メモリーとコンピューティングリソースの両方の使用率を高め、投資収益率の向上と運用コストの削減につながります。
  • 拡張性の強化: 数テラバイトのメモリーフットプリントを備えた大規模な AI トレーニングをサポートするための明確な道筋を提供します。
  • 柔軟性の向上: ワークロードに合わせて適応する分散型インフラストラクチャーを実現します。その逆ではありません。
  • 将来を見据えた設計: 次世代の異機種混在型AI最適化データセンターへの標準化された道筋を提供します。

急速な業界導入と今後の展望

テクノロジー業界全体で、サーバーベンダー、GPUおよびアクセラレーターメーカー、および主要なクラウドプロバイダーはすべて、CXL を製品ロードマップに統合しています。一方、CXLコンソーシアムは標準規格の進化を続けており、CXL 2.0および3.0では、ファブリック・スイッチング、メモリー・プーリング、グローバル・コヒーレンスといった機能を拡張し、より大規模で複雑なコンピューティング環境をサポートできるようにしています。

要するに、AI はコンピューターシステムの設計方法に根本的な変革を必要としています。従来のサイロ化されたリソースモデルでは、もはや十分ではありません。 CXL は、この変革に不可欠なバックボーンを提供し、次世代の人工知能に必要なメモリー中心かつコンポーザブルなアーキテクチャを実現します。今日のインフラストラクチャいおける重大なギャップを埋めることで、CXL はコンピューティングの未来を支える基盤となる技術となるでしょう。

SMART Modular Technologiesは、統合メモリソリューションの設計、開発、高度なパッケージングを通じて、世界中のお客様がAI とハイパフォーマンスコンピューティング(HPC)を実現できるよう支援します。当社のポートフォリオは、CXL のような最先端のメモリテクノロジー から、標準およびレガシーのDRAMやフラッシュストレージ製品まで多岐にわたります。30 年以上にわたり、当社は成長著しい市場における多様なアプリケーションのニーズに応える標準、高耐久性、そしてカスタムのメモリーおよびストレージソリューションを提供してきました。 詳細については、今すぐお問い合わせください

著者画像

関連記事

専門家にご相談ください
Penguin Solutions

Penguinのチームは、高性能で可用性の高いHPCおよびAI エンタープライズソリューションの設計、構築、導入、管理を行い、お客様が画期的なイノベーションを実現できるよう支援しています。

今すぐお問い合わせいただき、インフラストラクチャソリューションプロジェクトのニーズについてご相談ください。

話そう