NVIDIA DGX Station A100は、複数の同時接続ユーザーに集中型AIリソースを手軽に提供できるワークグループアプライアンスです。AIスーパーコンピューティングをデータサイエンスチームにもたらし、データセンターやITインフラストラクチャの増設なしに革新的な性能を提供します。

NVIDIA DGX Station A100 ~AI時代のワークグループサーバー~

2.5petaFLOPSのAI学習能力、5.0petaOPS INT8の推論性能の提供が可能です。NVIDIA NVLinkによって、システム性能に影響を与えることなく、並列ジョブを実行して複数のユーザーに対処します。デスクの下に設置でき、静音性に優れています。

NVIDIA DGX Station A100 筐体
NVIDIA DGX Station A100
DGX Station A100のトレーニング性能は3倍以上高速
DGX Station A100の推論性能は4倍以上高速
DGX Station A100はリニアスケーラビリティを提供

NVIDIA DGX Station A100の特長

  • 4基のMIG対応 NVIDIA A100 TensorコアGPUを完全相互接続し、最大320GBのGPUメモリが利用可能
  • あらゆるワークロード (学習、推論、データ分析、HPC) に対応した共有システム
  • サーバー級ながら、データセンターの電力と冷却機能は不要
  • AIに精通した専門家「DGXpert」がアドバイスや設計に関する知識を提供
  • プラグ
    一般的なコンセントにプラグを差し込むだけで、どこからでも作業が可能
  • コンパクトサイズ
    オフィスの机の下に収まる、コンパクトなワークステーションサイズ

DGX STATION A100があらゆるワークロードを加速

AI学習

複雑なAIモデルのソリューションをPCIeベースのワークステーションよりも短時間で実現

AI推論

データセンターへ展開する前に、MIGにより推論のパフォーマンスと結果をローカルでテスト可能

データ分析

実用的なインサイトをデータから短期間で獲得

HPC

オフィスや自宅でも、HPCクラスタに展開する前に科学的ワークロードをテスト可能

NVIDIA DGX Station A100 システム仕様

DGX STATION A100
モデル スタンダード エントリ
GPU NVIDIA A100 Tensorコア GPU x 4
GPUメモリ(合計) 320GB HBM2e 160GB HBM
CPU AMD Epyc 7742 @2.25GHz 3.4GHz, 64 コア
PCIe Gen4
システムメモリ 512GB DDR4 @3200MT/秒
ブートドライブ 1.92TB M.2 PCIe Gen3 x 1
キャッシュストレージ 7.68 TB U.2 PCIe Gen4 x 1
ネットワーキング 10GbE (RJ-45) x 2
ディスプレイGPU 4GB HBM, mini DisplayPort x 4
リモート管理 オンボード BMC, 1GbE (RJ-45) MGMT ポート, AST2500 ベース, IPMI, Redfish