Freigeben über


GPU-beschleunigte VM-Größenreihe der „NC“-Unterfamilie

Gilt für: ✔️ Linux-VMs ✔️ Windows-VMs ✔️ Flexible Skalierungsgruppen ✔️ Einheitliche Skalierungsgruppen

Die „NC“-Unterfamilie der VM-Größenreihe ist eine der GPU-optimierten VM-Instanzen von Azure. Sie sind für rechenintensive Workloads konzipiert, z. B. KI- und Machine Learning-Modellschulungen, High Performance Computing (HPC) und grafikintensive Anwendungen. Ausgestattet mit leistungsstarken NVIDIA-Grafikprozessoren bieten die VMs der NC-Serie eine erhebliche Beschleunigung für Prozesse, die eine hohe Rechenleistung erfordern, darunter Deep Learning, wissenschaftliche Simulationen und 3D-Rendering. Dadurch eignen sie sich besonders gut für Branchen wie Technologieforschung, Unterhaltung und Technik, in denen Rendering und Verarbeitungsgeschwindigkeit entscheidend für Produktivität und Innovation sind.

Workloads und Anwendungsfälle

KI und Machine Learning: VMs der NC-Serie sind ideal für das Training komplexer Machine Learning-Modelle und die Ausführung von KI-Anwendungen. Die NVIDIA-GPUs bieten eine erhebliche Beschleunigung für Berechnungen, die typischerweise bei Deep Learning und anderen intensiven Trainingsaufgaben anfallen.

High Performance Computing (HPC): Diese VMs eignen sich für wissenschaftliche Simulationen, Rendering und andere HPC-Workloads, die von GPUs beschleunigt werden können. In Bereichen wie dem Ingenieurwesen, der medizinischen Forschung und der Finanzmodellierung werden häufig VMs der NC-Serie eingesetzt, um ihre Rechenanforderungen effizient zu erfüllen.

Grafikrendering: VMs der NC-Serie werden auch für grafikintensive Anwendungen eingesetzt, darunter Videobearbeitung, 3D-Rendering und Echtzeit-Grafikverarbeitung. Sie sind besonders nützlich in Branchen wie der Spieleentwicklung und Filmproduktion.

Remotevisualisierung: Für Anwendungen, die High-End-Visualisierungsfunktionen erfordern, wie CAD und visuelle Effekte, können die VMs der NC-Serie die erforderliche GPU-Leistung per Fernzugriff bereitstellen, so dass Benutzerinnen und Benutzer an komplexen grafischen Aufgaben arbeiten können, ohne leistungsstarke lokale Hardware zu benötigen.

Simulation und Analyse: Diese VMs eignen sich auch für detaillierte Simulationen und Analysen in Bereichen wie Automobil-Crashtests, Computational Fluid Dynamics und Wettermodellierung, wo GPU-Funktionen die Verarbeitungszeiten erheblich beschleunigen können.

Reihe in Familie

NC-Serie V1

Wichtig

Azure-VMs der NC- und NC_Promo-Serie werden am 6. September 2023 eingestellt. Weitere Informationen dazu finden Sie in den Informationen zur Einstellung von NC und NC_Promo. Informationen zum Migrieren Ihrer Workloads zu anderen VM-Größen finden Sie in der Migrationsanleitung für GPU Compute.

Diese Einstellungsankündigung gilt nicht für die VMs der Serien NCv3, NCasT4v3 und NC A100 v4.

Virtuelle Computer der NC-Serie werden mit der NVIDIA-Grafikkarte Tesla K80 und dem Prozessor Intel Xeon E5-2690 v3 (Haswell) betrieben. Benutzer können Daten schneller verarbeiten, indem sie CUDA für Energieexplorationsanwendungen, Crashsimulationen, Rendering mit Raytracing, Deep Learning und vieles mehr verwenden. Die NC24r-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet.

Die vollständige NC-Reihe Seite anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 6–24 vCPUs Intel Xeon E5-2690 v3 (Haswell) [x86-64]
Arbeitsspeicher 56–224 GiB
Lokaler Speicher 1 Datenträger 340–1440 GiB
Remotespeicher 24–64 Datenträger
Network 1–4 NICs MBit/s
Schnellinfos 1–4 GPUs Nvidia Tesla K80-GPU (24 GB)

NCads_H100_v5-Serie

Die VMs der NCads H100 v5-Serie sind eine neue Ergänzung der Azure GPU-Produktfamilie. Sie können diese Serie für praxisorientierte Azure Applied AI-Trainings- und -Batchrückschluss-Workloads verwenden. Die VMs der NCads H100 v5-Serie werden von NVIDIA H100 NVL GPU- und AMD EPYC™ Genoa-Prozessoren der 4. Generation unterstützt. Die VMs verfügen über bis zu zwei NVIDIA H100 NVL-GPUs mit jeweils 94 GB Arbeitsspeicher, bis zu 96 AMD EPYC Genoa-Prozessorkernen ohne Multithreading und 640 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für praxisorientierte Applied AI-Workloads, z. B.:

  • GPU-beschleunigte Analysen und Datenbanken
  • Batchrückschließen mit hoher Vor- und Nachverarbeitung
  • Autonomiemodelltraining
  • Simulation für Öl- und Gasvorkommen
  • Machine Learning-Entwicklung (ML)
  • Videoverarbeitung
  • KI/ML-Webdienste

Die vollständige Seite der NCads_H100_v5-Serie anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 40–80 vCPUs AMD EPYC (Genoa) [x86-64]
Arbeitsspeicher 320–640 GiB
Lokaler Speicher 1 Datenträger 3.576–7.152 GiB
IOPS (RR)
MBit/s (RR)
Remotespeicher 8–16 Datenträger 100.000–240.000 IOPS
3.000–7.000 MBit/s
Network 2–4 NICs 40.000–80.000 MBit/s
Schnellinfos 1–2 GPUs Nvidia PCIe H100-GPU (80 GB)

NCCads_H100_v5-Serie

Die VMs der NCCads H100 v5-Serie sind eine neue Ergänzung der Azure GPU-Produktfamilie. In dieser VM-SKU umfasst Trusted Execution Environment (TEE) vertrauliche VMs auf der CPU und auf angefügten GPUs, sodass sicheres Auslagern von Daten, Modellen und Berechnungen an die GPU ermöglicht wird. Die NCads H100 v5-Serie wird von AMD EPYC™ Genoa-Prozessoren der 4. Generation und NVIDIA H100 Tensor Core GPU unterstützt. Diese VMs verfügen über eine NVIDIA H100 NVL-GPU mit 94 GB Arbeitsspeicher, 40 AMD EPYC Genoa-Prozessorkernen ohne Multithreading und 320 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für praxisorientierte Applied AI-Workloads, z. B.:

  • GPU-beschleunigte Analysen und Datenbanken
  • Batchrückschließen mit hoher Vor- und Nachverarbeitung
  • Machine Learning-Entwicklung (ML)
  • Videoverarbeitung
  • KI/ML-Webdienste

Die vollständige Seite der NCCads_H100_v5-Serie anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 40 vCPUs AMD EPYC (Genoa) [x86-64]
Arbeitsspeicher 320 GiB
Lokaler Speicher 1 Datenträger 800 GiB
Remotespeicher 8 Datenträger 100.000 IOPs
3.000 MBit/s
Network 2 NICs 40.000 MBit/s
Schnellinfos 1 GPU Nvidia H100-GPU (94 GB)

NCv2-Serie

Wichtig

Die Azure-VMs der NCv2-Serie werden am 6. September 2023 eingestellt. Weitere Informationen dazu finden Sie in den Informationen zur Einstellung von NCv2. Informationen zum Migrieren Ihrer Workloads zu anderen VM-Größen finden Sie in der Migrationsanleitung für GPU Compute.

Diese Einstellungsankündigung gilt nicht für die VMs der Serien NCv3, NCasT4v3 und NC A100 v4.

NCv2-Serien-VMs werden mit NVIDIA Tesla P100-GPUs betrieben. Im Vergleich zur NC-Serie können diese GPUs eine mehr als doppelte Rechenleistung erzielen. Kunden können diese neuen GPUs für herkömmliche HPC-Workloads wie Modellierung von Lagerstätten, DNA-Sequenzierung, Proteinanalysen, Monte Carlo-Simulationen und Ähnliches nutzen. Zusätzlich zu den GPUs werden virtuelle Computer der NCv2-Serie mit Intel Xeon E5-2690 v4-CPUs (Broadwell) betrieben. Die NC24rs v2-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet.

Die vollständige Seite der NCv2-Reihe anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 6–24 vCPUs Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Arbeitsspeicher 112–448 GiB
Lokaler Speicher 1 Datenträger 736–2948 GiB
Remotespeicher 12–32 Datenträger 20.000–80.000 IOPS
200–800 MBit/s
Network 4–8 NICs
Schnellinfos 1–4 GPUs Nvidia Tesla P100-GPU (16 GB)

NCv3-Serie

NCv3-Serien-VMs werden mit NVIDIA Tesla V100-GPUs betrieben. Diese GPUs können eine 1,5-mal so hohe Rechenleistung erzielen wie die NCv2-Serie. Kunden können diese neuen GPUs für herkömmliche HPC-Workloads wie Modellierung von Lagerstätten, DNA-Sequenzierung, Proteinanalysen, Monte Carlo-Simulationen und Ähnliches nutzen. Die NC24rs v3-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet. Zusätzlich zu den GPUs werden virtuelle Computer der NCv3-Serie mit Intel Xeon E5-2690 v4-CPUs (Broadwell) betrieben.

Wichtig

Für diese VM-Serie ist das vCPU-Kontingent (Kernkontingent) in Ihrem Abonnement anfänglich in jeder Region auf 0 festgelegt. Sie können für diese Serie in einer verfügbaren Region eine Anhebung des vCPU-Kontingents anfordern. Diese SKUs sind nicht für Test- oder Azure-Abonnements von Visual Studio-Abonnenten verfügbar. Ihre Abonnementebene unterstützt möglicherweise nicht die Auswahl oder Bereitstellung dieser SKUs.

Die vollständige Seite der NCv3-Reihe anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 6–24 vCPUs Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Arbeitsspeicher 112–448 GiB
Lokaler Speicher 1 Datenträger 736–2.948 GiB
IOPS (RR)
MBit/s (RR)
Remotespeicher 12–32 Datenträger 20.000–80.000 IOPS
200–800 MBit/s
Network 4–8 NICs MBit/s
Schnellinfos 1– 4 Nvidia Tesla V100-GPU (16 GB)

NCasT4_v3-Serie

Die virtuellen Computer der NCasT4_v3-Serie basieren auf GPUs vom Typ Nvidia Tesla T4 sowie auf CPUs vom Typ AMD EPYC 7V12(Rome). Die VMs verfügen über bis zu 4 NVIDIA T4-GPUs mit jeweils 16 GB Arbeitsspeicher, bis zu 64 AMD EPYC 7V12(Rome)-Prozessorkerne ohne Multithreading (Basisfrequenz von 2,45 GHz, Spitzenfrequenz aller Kerne von 3,1 GHz und Spitzenfrequenz von 3,3 GHz für einzelne Kerne) und 440 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für das Bereitstellen von KI-Diensten wie Rückschlüsse in Echtzeit im Zusammenhang mit vom Benutzer generierten Anforderungen oder für interaktive Grafiken und Visualisierungsworkloads mit dem GRID-Treiber und der vGPU-Technologie von NVIDIA. GPU-Standardcomputeworkloads, die auf CUDA, TensorRT, Caffe, ONNX und anderen Frameworks basieren, oder auf OpenGL und DirectX basierende GPU-beschleunigte grafische Anwendungen können in der NCasT4_v3-Reihe wirtschaftlich und in unmittelbarer Nähe zu den Benutzern bereitgestellt werden.

Die vollständige Seite der NCasT4_v3-Reihe anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 4–64 vCPUs AMD EPYC 7V12 (Rome) [x86-64]
Arbeitsspeicher 28–440 GiB
Lokaler Speicher 1 Datenträger 176–2.816 GiB
IOPS (RR)
MBit/s (RR)
Remotespeicher 8–32 Datenträger IOPS
MBit/s
Network 2–8 NICs 8.000–32.000 MBit/s
Schnellinfos 1–4 GPUs Nvidia Tesla T4-GPU (16 GB)

NC_A100_v4-series

Der virtuelle Computer der NC A100 v4-Serie ist eine neue Ergänzung der Azure-GPU-Familie. Sie können diese Serie für praxisorientierte Azure Applied AI-Trainings- und -Batchrückschluss-Workloads verwenden. Die NC A100 v4-Serie wird von NVIDIA A100 PCIe-GPU- und AMD EPYC™ 7V13 (Milan)-Prozessoren der dritten Generation unterstützt. Die VMs verfügen über bis zu 4 NVIDIA A100 PCIe-GPUs mit jeweils 80 GB Arbeitsspeicher, bis zu 96 AMD EPYC Milan-Prozessorkernen ohne Multithreading und 880 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für praxisorientierte Applied AI-Workloads, z. B.:

GPU-beschleunigte Analysen und Datenbanken, Stapelrückschlüsse mit umfangreichem Vor- und Nachverarbeitung, Autonomiemodelltraining, Öl- und Gasreservoirsimulation, ML-Entwicklung (maschinelles Lernen), Videoverarbeitung, KI/ML-Webdienste

Die vollständige NC_A100_v4-Reihe-Seite anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 24–96 vCPUs AMD EPYC 7V13 (Milan) [x86-64]
Arbeitsspeicher 220–880 GiB
Lokaler Speicher 1 temporärer Datenträger
1–4 NVMe-Datenträger
Temporärer Datenträger mit 64–256 GiB
NVMe-Datenträger mit 960 GiB
Remotespeicher 8–32 Datenträger 30.000–120.000 IOPS
1.000–4.000 MBit/s
Network 2–8 NICs 20.000–80.000 MBit/s
Schnellinfos 1–4 GPUs Nvidia PCIe A100 GPU (80 GB)

Serien der NC-Familie der vorherigen Generation

Ältere Größen finden Sie unter Größen der vorherigen Generation.

Andere Größeninformationen

Liste aller verfügbaren Größen: Größen

Preisrechner: Preisrechner

Informationen zu Datenträgertypen: Datenträgertypen

Nächste Schritte

Weitere Informationen dazu, wie Sie mit Azure-Computeeinheiten (ACU) die Computeleistung von Azure-SKUs vergleichen können.

Azure Dedicated Host stellt physische Server bereit, auf denen einem Azure-Abonnement zugewiesene VMs (Virtual Machines, virtuelle Computer) gehostet werden können.

Weitere Informationen finden Sie unter Überwachen von Azure-VMs.