次の方法で共有


"NC" サブファミリ GPU 高速化 VM サイズ シリーズ

適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット

"NC" サブファミリの VM サイズ シリーズは、Azure の GPU 最適化 VM インスタンスの 1 つです。 これらは、AI と機械学習モデルのトレーニング、ハイ パフォーマンス コンピューティング (HPC)、グラフィックス集中型アプリケーションなど、コンピューティング負荷の高いワークロード向けに設計されています。 強力な NVIDIA GPU を搭載した NC シリーズ VM は、ディープ ラーニング、科学シミュレーション、3D レンダリングなど、高い計算能力を必要とするプロセスに対して大幅な高速化を提供します。 これにより、レンダリングと処理の速度が生産性とイノベーションに不可欠な技術研究、エンターテイメント、エンジニアリングなどの業界に特に適しています。

ワークロードとユース ケース

AI と Machine Learning:: NC シリーズ VM は、複雑な機械学習モデルのトレーニングや AI アプリケーションの実行に最適です。 NVIDIA GPU は、ディープ ラーニングやその他の負荷の高いトレーニング タスクに通常伴う計算を大幅に高速化します。

ハイ パフォーマンス コンピューティング (HPC): これらの VM は、科学シミュレーション、レンダリング、その他の GPU によって高速化できる HPC ワークロードに適しています。 エンジニアリング、医療研究、財務モデリングなどの分野では、多くの場合、NC シリーズ VM を使用して計算ニーズを効率的に処理します。

グラフィックス レンダリング: NC シリーズ VM は、ビデオ編集、3D レンダリング、リアルタイム グラフィックス処理など、グラフィックスを集中的に使用するアプリケーションにも使用されます。 ゲーム開発や映画制作などの業界で特に役立ちます。

リモート視覚化: CAD や視覚効果などのハイエンドの視覚化機能を必要とするアプリケーションの場合、NC シリーズ VM は必要な GPU パワーをリモートで提供できるため、ユーザーは強力なローカル ハードウェアを必要とせずに複雑なグラフィカル タスクに取り組むことができます。

シミュレーションと分析: これらの VM は、自動車のクラッシュ テスト、計算流体力学、気象モデリングなどの分野での詳細なシミュレーションや分析にも適しています。GPU 機能により処理時間が大幅に短縮されます。

ファミリ内のシリーズ

NC シリーズ V1

重要

NC および NC_Promo シリーズの Azure 仮想マシン (VM) は、2023 年 9 月 6 日に廃止される予定です。 詳細については、「NC および NC_Promo の廃止に関する情報」を参照してください。 ワークロードを他の VM サイズに移行する方法については、GPU コンピューティングの移行ガイドを参照してください。

この廃止のお知らせは、NCv3、NCasT4v3、NC A100 v4 シリーズ VM には適用されません。

NC シリーズ VM は、NVIDIA Tesla K80 カードおよび Intel Xeon E5-2690 v3 (Haswell) プロセッサを搭載しています。 エネルギー調査アプリケーション向け CUDA やクラッシュ シミュレーション、レイ トレーシング レンダリング、ディープ ラーニングなどを使用することで、ユーザーはデータをさらに高速に処理することができます。 NC24r 構成には、密結合並列コンピューティングのワークロード向けに最適化された、低待機時間かつ高スループットのネットワーク インターフェイスが搭載されています。

NC シリーズの完全なページを表示する

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 6 - 24 vCPU Intel Xeon E5-2690 v3 (Haswell) [x86-64]
[メモリ] 56 - 224 GiB
ローカル ストレージ 1 個のディスク 340 - 1440 GiB
リモート ストレージ 24 - 64 ディスク
ネットワーク 1 - 4 NIC Mbps
アクセラレータ 1 - 4 GPU Nvidia Tesla K80 GPU (24 GB)

NCads_H100_v5-series

NCads H100 v5 シリーズ仮想マシン (VM) は、Azure GPU ファミリに新たに追加されたものです。 このシリーズは、実際の Azure Applied AI のトレーニングとバッチ推論ワークロードに使用できます。 NCads H100 v5 シリーズの仮想マシンは、NVIDIA H100 NVL GPU と第 4 世代 AMD EPYC™ Genoa プロセッサを搭載しています。 この VM には、最大 2 個の NVIDIA H100 NVL GPU (それぞれに 94 GB のメモリを装備)、最大 96 個の非マルチスレッド AMD EPYC Genoa プロセッサ コア、640 GiB のシステム メモリが搭載されています。 これらの VM は、次のような実際の Applied AI ワークロードに最適です。

  • GPU で高速化された分析とデータベース
  • 大量の前処理と後処理があるバッチ推論
  • 自律性モデルのトレーニング
  • 石油とガスの貯留層シミュレーション
  • 機械学習 (ML) 開発
  • ビデオの処理
  • AI/ML Web サービス

NCCads_H100_v5 シリーズ全体に関するページをご覧ください

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 40 - 80 vCPUs AMD EPYC (Genoa) [x86-64]
[メモリ] 320 - 640 GiB
ローカル ストレージ 1 個のディスク 3576 - 7152 GiB
IOPS (RR)
MBps (RR)
リモート ストレージ 8 - 16 Disks 100000 - 240000 IOPS
3000 - 7000 MBps
ネットワーク 2 - 4 NIC 40,000 - 80,000 Mbps
アクセラレータ 1 - 2 GPUs Nvidia PCIe H100 GPU (94GB)

NCCads_H100_v5 シリーズ

NCCads H100 v5 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加されたものです。 この VM SKU では、高信頼実行環境 (TEE) は CPU 上の機密 VM とアタッチされた GPU にまたがるので、データ、モデル、評価を GPU に安全にオフロードできます。 NCCads H100 v5 シリーズは、第 4 世代 AMD EPYC™ Genoa プロセッサと NVIDIA H100 Tensor Core GPU を搭載しています。 これらの VM には、94 GB のメモリを備えた 1 つの NVIDIA H100 NVL GPU、40 個の非マルチスレッド AMD EPYC Genoa プロセッサ コア、320 GiB のシステム メモリが搭載されています。 これらの VM は、次のような実際の Applied AI ワークロードに最適です。

  • GPU で高速化された分析とデータベース
  • 大量の前処理と後処理があるバッチ推論
  • 機械学習 (ML) の開発
  • ビデオの処理
  • AI/ML Web サービス

NCCads_H100_v5 シリーズ全体に関するページをご覧ください

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 40 vCPU AMD EPYC (Genoa) [x86-64]
[メモリ] 320 GiB
ローカル ストレージ 1 個のディスク 800 GiB
リモート ストレージ 8 個のディスク 100000 IOPS
3000 MBps
ネットワーク 2 個の NIC 40000 Mbps
アクセラレータ 1 GPU Nvidia H100 GPU (94GB)

NCv2 シリーズ

重要

NCv2 シリーズの Azure 仮想マシン (VM) は、2023 年 9 月 6 日に廃止される予定です。 詳細については、NCv2 の廃止に関する情報を参照してください。 ワークロードを他の VM サイズに移行する方法については、GPU コンピューティングの移行ガイドを参照してください。

この廃止のお知らせは、NCv3、NCasT4v3、NC A100 v4 シリーズ VM には適用されません。

NCv2 シリーズ VM は NVIDIA Tesla P100 GPU を備えています。 これらの GPU は、NC シリーズの 2 倍以上の計算性能を有しています。 貯留層モデリング、DNA シーケンシング、タンパク質解析、モンテ カルロ シミュレーションをはじめとする従来の HPC ワークロードに、これらの最新の GPU を活用することができます。 GPU に加えて、NCv2 シリーズ VM は Intel Xeon E5-2690 v4 (Broadwell) CPU も搭載しています。 NC24rs v2 構成には、密結合並列コンピューティングのワークロード向けに最適化された、低待機時間かつ高スループットのネットワーク インターフェイスが搭載されています。

NCv2 シリーズの完全なページを表示する

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 6 から 24 個の vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
[メモリ] 112 から 448 GiB
ローカル ストレージ 1 個のディスク 736 - 2948 GiB
リモート ストレージ 12 から 32 個のディスク 20,000 から 80,000 IOPS
200 から 800 MBps
ネットワーク 4 - 8NIC
アクセラレータ 1 - 4 GPU Nvidia Tesla P100 GPU (16 GB)

NCv3 シリーズ

NCv3 シリーズ VM は NVIDIA Tesla V100 GPU を備えています。 これらの GPU は、NCv2 シリーズの 1.5 倍以上の計算性能を有しています。 貯留層モデリング、DNA シーケンシング、タンパク質解析、モンテ カルロ シミュレーションをはじめとする従来の HPC ワークロードに、これらの最新の GPU を活用することができます。 NC24rs v3 構成には、密結合並列コンピューティングのワークロード向けに最適化された、低待機時間かつ高スループットのネットワーク インターフェイスが搭載されています。 GPU に加えて、NCv3 シリーズ VM は Intel Xeon E5-2690 v4 (Broadwell) CPU も搭載しています。

重要

この VM シリーズでは、ご利用のサブスクリプションの vCPU (コア) クォータが、各リージョンで 0 に初期設定されています。 このシリーズについては、提供リージョンvCPU クォータの引き上げを要求してください。 これらの SKU は、試用版または Visual Studio サブスクライバーの Azure サブスクリプションでは使用できません。 ご利用のサブスクリプション レベルでは、これらの SKU の選択またはデプロイがサポートされていない可能性があります。

NCv3 シリーズの完全なページを表示する

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 6 から 24 個の vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
[メモリ] 112 から 448 GiB
ローカル ストレージ 1 個のディスク 736 - 2948 GiB
IOPS (RR)
MBps (RR)
リモート ストレージ 12 から 32 個のディスク 20,000 から 80,000 IOPS
200 から 800 MBps
ネットワーク 4 - 8NIC Mbps
アクセラレータ 1 - 4 Nvidia Tesla V100 GPU (16 GB)

NCasT4_v3 シリーズ

NCasT4_v3 シリーズ仮想マシンは、Nvidia Tesla T4 GPU と AMD EPYC 7V12(Rome) CPU を搭載しています。 この VM には、最大 4 個の NVIDIA T4 GPU (それぞれに 16 GB のメモリを装備)、最大 64 個の非マルチスレッド AMD EPYC 7V12 (Rome) プロセッサ コア (ベース周波数 2.45 GHz、全コアのピーク周波数 3.1 GHz、単一コアのピーク周波数 3.3 GHz)、440 GiB のシステム メモリが搭載されています。 これらの仮想マシンは、AI サービス (ユーザーが生成した要求のリアルタイム推論など) のデプロイや、NVIDIA の GRID ドライバーと仮想 GPU テクノロジを使用した対話型グラフィックスと視覚化ワークロードに最適です。 CUDA、TensorRT、Caffe、ONNX、およびその他のフレームワークをベースにした標準的な GPU コンピューティング ワークロードや、OpenGL と DirectX をベースにした GPU アクセラレーションを使用するグラフィック アプリケーションは、ユーザーのすぐ近くにある NCasT4_v3 シリーズに経済的にデプロイできます。

NCasT4_v3 シリーズの完全なページを表示する

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 4 - 64 vCPUs AMD EPYC 7V12 (Rome) [x86-64]
[メモリ] 28 - 440 GiB
ローカル ストレージ 1 個のディスク 176 - 2816 GiB
IOPS (RR)
MBps (RR)
リモート ストレージ 8 - 32 個のディスク IOPS
MBps
ネットワーク 2 - 8 NIC 8000 - 32000 Mbps
アクセラレータ 1 - 4 GPU Nvidia Tesla T4 GPU (16 GB)

NC_A100_v4 シリーズ

NC A100 v4 シリーズ仮想マシン (VM) は、Azure GPU ファミリに新たに追加されたものです。 このシリーズは、実際の Azure Applied AI のトレーニングとバッチ推論ワークロードに使用できます。 NC A100 v4 シリーズには、NVIDIA A100 PCIe GPU と第 3 世代 AMD EPYC™ 7V13 (Milan) プロセッサが搭載されています。 この VM には、最大 4 個の NVIDIA A100 PCIe GPU (それぞれに 80 GB のメモリを装備)、最大 96 個の非マルチスレッド AMD EPYC Milan プロセッサ コア、880 GiB のシステム メモリが搭載されています。 これらの VM は、次のような実際の Applied AI ワークロードに最適です。

GPU で高速化された分析とデータベース、大量のプレおよびポスト プロセスを行うバッチ推論、自律モデルトレーニング、オイルおよびガス貯留層シミュレーション、機械学習 (ML) 開発、ビデオ処理、AI/ML Web サービス

NC_A100_v4 シリーズの完全なページを表示する

部分 Quantity
数値単位
仕様
SKU ID、パフォーマンス単位など
プロセッサ 24 から 96 個の vCPU AMD EPYC 7V13 (Milan) [x86-64]
[メモリ] 220 から 880 GiB
ローカル ストレージ 1 個の一時ディスク
1 から 4 個の NVMe ディスク
64 から 256 GiB の一時ディスク
960 GiB の NVMe ディスク
リモート ストレージ 8 から 32 個のディスク 30,000 から 120,000 IOPS
1,000 から 4,000 MBps
ネットワーク 2 - 8 NIC 20,000 から 80,000 Mbps
アクセラレータ 1 - 4 GPU Nvidia PCIe A100 GPU (80 GB)

前世代の NC ファミリ シリーズ

以前のサイズについては、「前世代のサイズ」を参照してください。

サイズに関するその他の情報

利用可能なすべてのサイズのリスト: サイズ

料金計算ツール: 料金計算ツール

ディスクの種類の情報: ディスクの種類

次のステップ

Azure コンピューティング ユニット (ACU) を確認することで、Azure SKU 全体の処理性能を比較できます。

1 つの Azure サブスクリプションに割り当てられた 1 つ以上の仮想マシンをホストできる物理サーバーについては、Azure 専用ホストを確認してください。

Azure Virtual Machines を監視する方法をご確認ください。