Condividi tramite


Serie delle dimensioni delle macchine virtuali accelerate della sottofamiglia GPU 'ND'

Si applica a: ✔️ macchine virtuali Linux ✔️ macchine virtuali Windows ✔️ set di scalabilità flessibili ✔️ set di scalabilità uniformi

La famiglia di dimensioni della macchina virtuale 'ND' è una delle istanze di macchina virtuale con accelerazione GPU di Azure. Sono progettate per attività di Deep Learning, ricerca con intelligenza artificiale ed elaborazione ad alte prestazioni che traggono vantaggio da potenti accelerazioni della GPU. Dotate di GPU NVIDIA, le macchine virtuali della serie ND offrono funzionalità specializzate per il training e l'inferenza di modelli di apprendimento automatico complessi, agevolando calcoli più veloci e una gestione efficiente di set di dati di grandi dimensioni. Ciò le rende particolarmente adatte per applicazioni accademiche e commerciali nello sviluppo e nella simulazione di intelligenza artificiale, dove la tecnologia GPU all'avanguardia è fondamentale per ottenere risultati rapidi e accurati nell'elaborazione della rete neurale e in altre attività a elevato utilizzo di calcolo.

Carichi di lavoro e casi d’uso

Intelligenza artificiale e Deep Learning: le macchine virtuali della famiglia ND sono ideali per il training e la distribuzione di modelli di Deep Learning complessi. Dotate di potenti GPU NVIDIA, forniscono la potenza di calcolo necessaria per gestire un training di rete neurale esteso con set di dati di grandi dimensioni, riducendo significativamente i tempi necessari.

HPC (High Performance Computing): le macchine virtuali della famiglia ND sono adatte per le applicazioni HPC che richiedono l'accelerazione GPU. Campi come la ricerca scientifica, le simulazioni di ingegneria (ad esempio, la fluidità computazionale) e l'elaborazione genomica possono trarre vantaggio dalle funzionalità di elaborazione a velocità effettiva elevata delle macchine virtuali serie ND.

Serie in famiglia

Serie ND V1

Le macchine virtuali della serie ND sono una novità della famiglia di GPU progettata per carichi di lavoro di intelligenza artificiale e Deep Learning. Offrono prestazioni ottimali per il training e l'inferenza. Le istanze ND sono basate sulle GPU NVIDIA Tesla P40 e sulle CPU Intel Xeon E5-2690 v4 (Broadwell). Queste istanze offrono prestazioni eccellenti per le operazioni con precisione singola e virgola mobile e per carichi di lavoro di intelligenza artificiale che usano Microsoft Cognitive Toolkit, TensorFlow, Caffe e altri framework. La serie ND offre anche dimensioni di memoria di GPU significativamente superiori (24 GB), ottimali per modelli di rete neurale molto più grandi. Analogamente alla serie NC, la serie ND offre una configurazione con latenza bassa secondaria, rete con velocità effettiva elevata tramite RDMA e connettività InfiniBand, in modo che sia possibile eseguire processi di training su vasta scala per molte GPU.

Visualizzare la pagina completa della serie ND.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 6 - 24 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Memoria 112 - 448 GiB
Archiviazione locale 1 disco 736 - 2948 GiB
Archiviazione remota 12 - 32 dischi 20000 - 80000 operazioni di I/O al secondo
200 - 800 MBps
Rete 4 - 8 schede di interfaccia di rete
Acceleratori 1 - 4 GPU Nvidia Tesla P40 GPU (24GB)

Serie NDv2

Le macchine virtuali della serie NDv2 sono una nuova aggiunta alla famiglia di GPU progettate per i carichi di lavoro più complessi di intelligenza artificiale, apprendimento automatico, simulazione e HPC con accelerazione GPU.

NDv2 è alimentata da 8 GPU NVIDIA Tesla V100 NVLINK, ognuna con 32 GB di memoria GPU. Ogni macchina virtuale NDv2 dispone anche di 40 core Intel Xeon Platinum 8168 (Skylake) non HyperThreaded e 672 GiB di memoria di sistema.

Le istanze di NDv2 offrono prestazioni eccellenti per i carichi di lavoro HPC e di intelligenza artificiale che utilizzano kernel di calcolo ottimizzati per GPU CUDA e numerosi strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework.

A livello critico, la serie NDv2 è progettata sia per il calcolo che per l'aumento delle prestazioni, grazie alle 8 GPU per ogni macchina virtuale, nonché per lo scale-out, consentito dall'interazione di più macchine virtuali. La serie NDv2 supporta ora la rete back-end EDR InfiniBand 100 Gigabit, simile a quella disponibile nella serie HB della macchina virtuale HPC, per consentire il clustering ad alte prestazioni per scenari paralleli, incluso il training distribuito per intelligenza artificiale e Machine Learning. Questa rete back-end supporta tutti i principali protocolli InfiniBand, inclusi quelli usati dalle librerie NCCL2 di NVIDIA, consentendo un clustering semplice delle GPU.

Visualizzare la pagina completa della serie NDv2

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 40 vCPU Intel Xeon Platinum 8168 (Skylake) [x86-64]
Memoria 672 GiB
Archiviazione locale 1 disco 2948 GiB
Archiviazione remota 32 Dischi 80000 operazioni di I/O al secondo
800 MBps
Rete 8 schede di interfaccia di rete 24000 MBps
Acceleratori None

ND_A100_v4-series

La macchina virtuale della serie ND A100 v4 è il nuovo fiore all'occhiello della famiglia di GPU di Azure. Queste dimensioni sono state progettate per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC con scale-up e scale-out.

La serie ND A100 v4 inizia con una singola macchina virtuale e otto GPU NVIDIA Ampere A100 da 40 GB Tensor Core. Le distribuzioni basate su ND A100 v4 possono aumentare fino a migliaia di GPU con 1,6 TB/s di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione NVIDIA Mellanox HDR InfiniBand da 200 GB/s dedicata e indipendente dalla topologia. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali di Azure e supportano GPU Direct RDMA.

Ogni GPU dispone della connettività NVLINK 3.0 per la comunicazione all'interno della macchina virtuale, supportata da 96 core CPU AMD Epyc™ 7V12 di seconda generazione (Rome).

Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework. Inoltre, l'interconnessione InfiniBand scale-out supporta un ampio set di strumenti di intelligenza artificiale e HPC esistenti, basati sulle librerie di comunicazione NCCL2 di NVIDIA per un clustering semplice della GPU.

Visualizzare la pagina completa della serie ND_A100_v4.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96 vCPU AMD EPYC 7V12 (Rome) [x86-64]
Memoria 900 GiB
Archiviazione locale 1 disco 6000 GiB
Archiviazione remota 32 Dischi 80000 operazioni di I/O al secondo
800 MBps
Rete 8 schede di interfaccia di rete 24000 MBps
Acceleratori 8 GPU GPU Nvidia A100 (40 GB)

Serie NDm_A100_v4

La macchina virtuale della serie NDm A100 v4 è il nuovo fiore all'occhiello della famiglia di GPU di Azure. Queste dimensioni sono state progettate per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC con scale-up e scale-out.

La serie NDm A100 v4 inizia con una singola macchina virtuale e otto GPU NVIDIA Ampere A100 da 80 GB Tensor Core. Le distribuzioni basate su NDm A100 v4 possono aumentare fino a migliaia di GPU con 1,6 TB/s di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione NVIDIA Mellanox HDR InfiniBand da 200 GB/s dedicata e indipendente dalla topologia. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali di Azure e supportano GPU Direct RDMA.

Ogni GPU dispone della connettività NVLINK 3.0 per la comunicazione all'interno della macchina virtuale, supportata da 96 core CPU AMD Epyc™ 7V12 di seconda generazione (Rome).

Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework. Inoltre, l'interconnessione InfiniBand scale-out supporta un ampio set di strumenti di intelligenza artificiale e HPC esistenti, basati sulle librerie di comunicazione NCCL2 di NVIDIA per un clustering semplice della GPU.

Visualizzare la pagina completa della serie NDm_A100_v4.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96 vCPU AMD EPYC 7V12 (Rome) [x86-64]
Memoria 1900 GiB
Archiviazione locale 1 disco 6400 GiB
Archiviazione remota 32 Dischi 80000 operazioni di I/O al secondo
800 MBps
Rete 8 schede di interfaccia di rete 24000 MBps
Acceleratori 8 GPU GPU Nvidia A100 (80 GB)

Serie ND_H100_v5

La macchina virtuale della serie ND H100 v5 è il nuovo fiore all'occhiello della famiglia di GPU di Azure. Questa serie è progettata per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC e di AI generativa con scale-up e scale-out.

La serie ND H100 v5 inizia con una singola macchina virtuale e otto GPU NVIDIA H100 Tensor Core. Le distribuzioni basate su ND H100 v5 possono aumentare fino a migliaia di GPU con 3,2 Tbps di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione InfiniBand dedicata e indipendente dalla topologia 400 Gb/s NVIDIA Quantum-2 CX7. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali e supportano GPU Direct RDMA.

Ogni GPU offre connettività NVLINK 4.0 per la comunicazione all'interno della macchina virtuale e l'istanza dispone di 96 core fisici del processore scalabile Intel Xeon di quarta generazione.

Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework. Inoltre, l'interconnessione InfiniBand scale-out supporta un ampio set di strumenti di intelligenza artificiale e HPC esistenti, basati sulle librerie di comunicazione NCCL di NVIDIA per un clustering semplice della GPU.

Visualizzare la pagina completa della serie ND_H100_v5.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96 vCPU Intel Xeon (Sapphire Rapids) [x86-64]
Memoria 1900 GiB
Archiviazione locale 1 disco 28000 GiB
Archiviazione remota 32dischi
Rete 8 schede di interfaccia di rete
Acceleratori 8 GPU GPU Nvidia H100 (80 GB)

ND_MI300X_v5-series

La macchina virtuale della serie ND MI300X v5 è una nuova aggiunta principale alla famiglia GPU di Azure. È stata progettata per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC e di AI generativa con scalabilità orizzontale e verticale.

La macchina virtuale serie ND MI300X v5 inizia con otto GPU AMD Instinct MI300 e due processori scalabili Intel Xeon di quarta generazione per un totale di 96 core fisici. Ogni GPU all'interno della macchina virtuale viene quindi connessa alle altre tramite collegamenti AMD Infinity Fabric di quarta generazione con larghezza di banda di 128 GB/s per GPU e 896 GB/s di larghezza di banda aggregata.

Le distribuzioni basate su ND MI300X v5 possono aumentare fino a migliaia di GPU con 3,2 TB/s di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione InfiniBand dedicata e indipendente dalla topologia 400 Gb/s NVIDIA Quantum-2 CX7. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali e supportano GPUDirect RDMA.

Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU "predefinita", ad esempio TensorFlow, Pytorch e altri framework. Inoltre, l'interconnessione InfiniBand con scalabilità orizzontale supporta un ampio set di strumenti di intelligenza artificiale e HPC esistenti basati su AMD’ROCm Communication Collectives Library (RCCL) per un clustering semplice delle GPU.

Visualizzare la pagina completa della serie ND_MI300X_v5.

In parte Quantità
Conteggio delle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96 vCPU Intel Xeon (Sapphire Rapids) [x86-64]
Memoria 1850 GiB
Archiviazione locale 1 disco temporaneo
8 dischi NVMe
Dischi temporanei da 1000 GiB
Dischi NVMe da 28000 GiB
Archiviazione remota 32 Dischi 80000 operazioni di I/O al secondo
1.200 MBps
Rete 8 schede di interfaccia di rete
Acceleratori 8 GPU AMD Instinct MI300X GPU (192GB)

Serie della famiglia NP di generazione precedente

Per le dimensioni precedenti, vedere Dimensioni delle generazioni precedenti.

Altre informazioni sulle dimensioni

Elenco di tutte le dimensioni disponibili: Dimensioni

Calcolatore dei prezzi: Calcolatore dei prezzi

Informazioni sui tipi di dischi: Tipi di dischi

Passaggi successivi

Altre informazioni su come le unità di calcolo di Azure consentono di confrontare le prestazioni di calcolo negli SKU di Azure.

Vedere host dedicati di Azure per i server fisici in grado di ospitare una o più macchine virtuali assegnate a una sottoscrizione di Azure.

Informazioni su come Monitorare le macchine virtuali di Azure.