Graphcoreは、その範囲をAIスーパーコンピューターの領域にまで拡大します
Graphcoreは、IPU-POD 128および256の正式な発売により、データセンターシステムのスケーリングにおける大きな進歩を発表しました。
グラフコアは、IPU-POD 32用の強力な128ペタフロップスのAIコンピューティングと、IPU-POD 64用の256ペタフロップスを備えており、AIスーパーコンピューターの領域にその範囲を拡大できるようになると述べました。
どちらのシステムも、クラウドハイパースケーラー、国立科学計算ラボ、および金融サービスや製薬などの市場に大規模なAIチームを持つ企業向けに開発されました。
IPU-PODを使用すると、たとえば、システム全体で大規模なTransformerベースの言語モデルのトレーニングを高速化し、本番環境で大規模な商用AI推論アプリケーションを実行し、システムをより小さく柔軟なvPODに分割することで、より多くの開発者にIPUアクセスを提供できます。完全なシステム全体でGPTやGNNなどの新しいモデルの探索を可能にすることにより、科学的なブレークスルーを可能にします。
Graphcoreは、お客様がIPUベースのAI展開から価値を生み出すまでの時間を短縮できるように、広範なトレーニングとサポートを提供できます。
会社の他のように IPU-PODシステム、AIコンピューティングとサーバーの分解は、128と256の両方を最適化して、さまざまなAIワークロードに最大のパフォーマンスを提供できることを意味します。 たとえば、NLPに重点を置いたシステムでは、IPU-POD 128にXNUMX台のサーバーしか使用できませんが、コンピュータービジョンタスクなどのデータ集約型のタスクでは、XNUMX台のサーバーを設定することでメリットが得られます。
さらに、システム ストレージは、次を使用して特定の AI ワークロードに合わせて最適化できます。 テクノロジー Graphcore のストレージ パートナーから提供されます。