Webキャスト

日本アイ・ビー・エム株式会社

日本アイ・ビー・エム株式会社

カギはCPUとGPUの高速接続、ディープラーニングの膨大なワークロードへの対応法

ディープラーニングやビッグデータ解析など、膨大なワークロードを処理するために注目されるGPU。しかし、GPUだけでなく、CPUとの接続も加速しなければ実際の性能は向上しない。その解決策となるのが、CPUとGPUの高速連携技術だ。

要約

 GPUの進化は目覚ましく、最新製品はディープラーニングの計算性能を1桁変えるほどのインパクトをもたらした。また、マルチGPUのニーズに対応して、通信プロトコルも進化。高い通信帯域を確保し、ディープラーニングの学習や推論に8倍以上の性能を発揮している。この通信プロトコルは、CPU-GPU間の通信にも重要な意義を持っている。

 というのも、従来のCPU-GPU間を接続するPCIeはバンド幅が16Gb/sしかなく、GPUの進化に追随できていなかったからだ。この課題を解消しようと、最新GPUに加え、この通信プロトコルをCPU-GPU間の接続に活用したサーバが登場している。CPU-GPU間のオーバーヘッドを解消し、ディープラーニングに代表されるAIの計算、ビッグデータの解析といった膨大なワークロードも高速に処理できるようになる。

 並列処理を得意とするGPUと高速な汎用CPUを、緊密に連携させるというアーキテクチャは今後のプラットフォームに欠かせない要素となるだろう。本コンテンツは、この最新技術を紹介するWebキャストだ。既に米国の次世代スーパーコンピュータプロジェクトに採用されるなど、注目度の高い技術の特長を事例も交えて解説する。

アンケート