次の方法で共有


NDasrA100_v4 サイズ シリーズ

ND A100 v4 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これらのサイズは、ハイエンドのディープ ラーニング トレーニングと、密結合のスケールアップおよびスケールアウト HPC ワークロード向けに設計されています。

ND A100 v4 シリーズは、単一の VM と 8 つの NVIDIA Ampere A100 40GB Tensor Core GPU から始まります。 ND A100 v4 ベースのデプロイでは、VM あたり 1.6 TB/秒の相互接続帯域幅を備えた数千の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 接続が用意されています。 これらの接続は、同じ Azure 仮想マシン スケール セットを占有する VM 間で自動的に構成され、GPU Direct RDMA をサポートします。

各 GPU には、VM 内の通信用の NVLINK 3.0 接続が備わっており、その背後には、物理 CPU コア数が 96 個の第 2 世代 AMD Epyc™ 7V12 (Rome) が搭載されています。

これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS、そのほかのフレームワークなど) を活用して、優れたパフォーマンスを発揮します。 さらに、GPU のシームレスなクラスタリング用に NVIDIA の NCCL2 通信ライブラリに基づいて構築された、既存の AI および HPC ツールの大規模なセットによって、スケールアウト InfiniBand 相互接続がサポートされています。

ホストの仕様

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 96 個の vCPU AMD EPYC 7V12 (Rome) [x86-64]
[メモリ] 900 GiB
ローカル ストレージ 1 個のディスク 6,000 GiB
リモート ストレージ 32 個のディスク 80,000 IOPS
800 MBps
ネットワーク 8 NIC 24000 Mbps
アクセラレータ 8 GPU Nvidia A100 GPU (40 GB)

機能サポート

Premium Storage: サポートされています
Premium Storage キャッシュ: サポートされています
ライブ マイグレーション: サポートされていません
メモリ保持更新: サポートされていません
第 2 世代 VM: サポートされています
第 1 世代 VM: サポートされていません
高速ネットワーク: サポートされています
エフェメラル OS ディスク: サポートされています
入れ子になった仮想化: サポートされていません

シリーズのサイズ

各サイズの vCPU (数量) とメモリ

サイズ名 vCPU (数量) メモリ (GB)
Standard_ND96asr_A100_v4 96 900

VM の基本リソース

サイズに関するその他の情報

利用可能なすべてのサイズのリスト: サイズ

料金計算ツール: 料金計算ツール

ディスクの種類の情報: ディスクの種類

次のステップ

Azure コンピューティング ユニット (ACU) を確認することで、Azure SKU 全体の処理性能を比較できます。

1 つの Azure サブスクリプションに割り当てられた 1 つ以上の仮想マシンをホストできる物理サーバーについては、Azure 専用ホストを確認してください。

Azure Virtual Machines を監視する方法をご確認ください。