'NC' 하위 제품군 GPU 가속 VM 크기 시리즈
적용 대상: ✔️ Linux VM ✔️ Windows VM ✔️ 유연한 확장 집합 ✔️ 균일한 확장 집합
VM 크기 시리즈의 'NC' 하위 제품군은 Azure의 GPU 최적화 VM 인스턴스 중 하나입니다. AI 및 기계 학습 모델 학습, HPC(고성능 컴퓨팅), 그래픽 집약적인 애플리케이션과 같은 컴퓨팅 집약적인 워크로드를 위해 설계되었습니다. 강력한 NVIDIA GPU가 탑재된 NC 시리즈 VM은 딥 러닝, 과학 시뮬레이션, 3D 렌더링 등 엄청난 계산 성능이 필요한 프로세스에 상당한 가속을 제공합니다. 따라서 렌더링 및 처리 속도가 생산성과 혁신에 중요한 기술 연구, 엔터테인먼트, 엔지니어링과 같은 산업에 특히 적합합니다.
워크로드 및 사용 사례
AI 및 기계 학습: NC 시리즈 VM은 복잡한 기계 학습 모델을 학습하고 AI 애플리케이션을 실행하는 데 이상적입니다. NVIDIA GPU는 일반적으로 딥 러닝 및 기타 집중적인 학습 작업과 관련된 계산에 상당한 가속을 제공합니다.
HPC(고성능 컴퓨팅): 이러한 VM은 과학 시뮬레이션, 렌더링 및 GPU로 가속화할 수 있는 기타 HPC 워크로드에 적합합니다. 엔지니어링, 의학 연구, 재무 모델링과 같은 분야에서는 계산 요구 사항을 효율적으로 처리하기 위해 NC 시리즈 VM을 사용하는 경우가 많습니다.
그래픽 렌더링: NC 시리즈 VM은 동영상 편집, 3D 렌더링, 실시간 그래픽 처리 등 그래픽 집약적인 애플리케이션에도 사용됩니다. 게임 개발, 영화 프로덕션 등의 산업에서 특히 유용합니다.
원격 시각화: CAD 및 시각 효과와 같은 고급 시각화 기능이 필요한 애플리케이션의 경우 NC 시리즈 VM은 필요한 GPU 성능을 원격으로 제공하여 사용자가 강력한 로컬 하드웨어 없이도 복잡한 그래픽 작업을 수행할 수 있도록 합니다.
시뮬레이션 및 분석: 이러한 VM은 GPU 기능을 통해 처리 시간을 크게 단축할 수 있는 자동차 크래시 테스트, 전산 유체 역학, 날씨 모델링과 같은 분야의 상세한 시뮬레이션 및 분석에도 적합합니다.
제품군 시리즈
NC-series V1
Important
NV 및 NV_Promo 시리즈 Azure VM(가상 머신)은 2023년 9월 6일에 사용 중지됩니다. 자세한 내용은 NC 및 NC_Promo 사용 중지 정보를 참조하세요. 워크로드를 다른 VM 크기로 마이그레이션하는 방법은 GPU 컴퓨팅 마이그레이션 가이드를 참조하세요.
이 사용 중지 공지 사항은 NCv3, NCasT4v3 및 NC A100 v4 시리즈 VM에는 적용되지 않습니다.
NC 시리즈 VM은 NVIDIA Tesla K80 카드 및 Intel Xeon E5-2690 v3(Haswell) 프로세서를 기반으로 합니다. 사용자는 에너지 탐색 애플리케이션, 충돌 시뮬레이션, 광선 추적 렌더링, 딥러닝 등에 CUDA를 활용하여 데이터를 더 빠르게 처리할 수 있습니다. NC24r 구성은, 긴밀하게 결합된 병렬 컴퓨팅 워크로드용으로 최적화된 대기 시간이 짧고 처리량이 높은 네트워크 인터페이스를 제공합니다.
요소 | 수량 개수 단위 |
사양 SKU ID, 성능 단위 등 |
---|---|---|
프로세서 | 6~24개 vCPU | Intel Xeon E5-2690 v3(Haswell) [x86-64] |
메모리 | 56~224GiB | |
로컬 스토리지 | 1개 디스크 | 340~1440GiB |
원격 스토리지 | 24~64개 디스크 | |
네트워크 | 1~4개 NIC | Mbps |
바로 연결 | 1~4GPU | Nvidia Tesla K80 GPU(24GB) |
NCads_H100_v5-series
NCads H100 v5 시리즈 VM(가상 머신)은 Azure GPU 제품군에 새로 추가되었습니다. 실제 Azure Applied AI 학습 및 일괄 처리 유추 워크로드에 이 시리즈를 사용할 수 있습니다. NCads H100 v5 시리즈 가상 머신은 NVIDIA H100 NVL GPU 및 4세대 AMD EPYC™ Genoa 프로세서로 구동됩니다. VM에는 최대 2개의 NVIDIA H100 NVL GPU(각각 94GB 메모리 포함), 최대 96개의 비다중 스레드 AMD EPYC Genoa 프로세서 코어 및 640GiB의 시스템 메모리가 탑재되어 있습니다. 이러한 VM은 다음과 같은 실제 적용된 AI 워크로드에 적합합니다.
- GPU 가속 분석 및 데이터베이스
- 사전 처리 및 사후 처리가 많은 일괄 처리 유추
- 자율 모델 학습
- 석유 및 가스 저장소 시뮬레이션
- ML(기계 학습) 개발
- 비디오 처리
- AI/ML 웹 서비스
전체 NCads_H100_v5 시리즈 페이지를 봅니다.
요소 | 수량 개수 단위 |
사양 SKU ID, 성능 단위 등 |
---|---|---|
프로세서 | 40~80개 vCPU | AMD EPYC(Genoa) [x86-64] |
메모리 | 320~640GiB | |
로컬 스토리지 | 1개 디스크 | 3576~7152GiB IOPS(RR) MBps(RR) |
원격 스토리지 | 8~16개 디스크 | 100000~240000 IOPS 3000~7000MBps |
네트워크 | 2 - 4 NIC | 40,000~80,000Mbps |
가속기 | 1~2개 GPU | Nvidia PCIe H100 GPU(94GB) |
NCCads_H100_v5 시리즈
NCCads H100 v5 시리즈 가상 머신은 Azure GPU 제품군에 새로 추가되었습니다. 이 VM SKU에서 TEE(신뢰할 수 있는 실행 환경)는 CPU 및 연결된 GPU의 기밀 VM에 걸쳐 있으므로 데이터, 모델 및 계산을 GPU로 안전하게 오프로드할 수 있습니다. NCCads H100 v5 시리즈는 4세대 AMD EPYC™ Genoa 프로세서와 NVIDIA H100 Tensor Core GPU로 구동됩니다. 이러한 VM은 94GB 메모리가 있는 NVIDIA H100 NVL GPU 1개, 다중 스레드되지 않은 AMD EPYC Genoa 프로세서 코어 40개 및 시스템 메모리 320GiB를 갖추고 있습니다. 이러한 VM은 다음과 같은 실제 적용된 AI 워크로드에 적합합니다.
- GPU 가속 분석 및 데이터베이스
- 사전 처리 및 사후 처리가 많은 일괄 처리 유추
- ML(Machine Learning) 개발
- 비디오 처리
- AI/ML 웹 서비스
전체 NCCads_H100_v5 시리즈 페이지를 봅니다.
요소 | 수량 개수 단위 |
사양 SKU ID, 성능 단위 등 |
---|---|---|
프로세서 | vCPU 40대 | AMD EPYC(Genoa) [x86-64] |
메모리 | 320GiB | |
로컬 스토리지 | 1개 디스크 | 800GiB |
원격 스토리지 | 8개의 디스크 | 100000 IOPS 3000MBps |
네트워크 | NIC 2개 | 40000Mbps |
가속기 | GPU 1개 | Nvidia H100 GPU(94GB) |
NCv2 시리즈
Important
NCv2 시리즈 Azure VM(가상 머신)은 2023년 9월 6일에 사용 중지됩니다. 자세한 내용은 NCv2 사용 중지 정보를 참조하세요. 워크로드를 다른 VM 크기로 마이그레이션하는 방법은 GPU 컴퓨팅 마이그레이션 가이드를 참조하세요.
이 사용 중지 공지 사항은 NCv3, NCasT4v3 및 NC A100 v4 시리즈 VM에는 적용되지 않습니다.
NCv2 시리즈 VM은 NVIDIA Tesla P100 GPU로 구동됩니다. 이러한 GPU는 NC 시리즈보다 2배를 초과하는 계산 성능을 제공할 수 있습니다. 고객은 저수지 모델링, DNA 배열, 단백질 분석, 몬테카를로 시뮬레이션 등 기존 HPC 워크로드에 이러한 업데이트된 GPU를 활용할 수 있습니다. GPU 외에 NCv2 시리즈 VM은 Intel Xeon E5-2690 v4(Broadwell) CPU로도 구동됩니다. NC24rs v2 구성은 긴밀하게 결합된 병렬 컴퓨팅 작업에 최적화된 짧은 대기 시간과 높은 처리량의 네트워크 인터페이스를 제공합니다.
요소 | 수량 개수 단위 |
사양 SKU ID, 성능 단위 등 |
---|---|---|
프로세서 | 6~24개 vCPU | Intel Xeon E5-2690 v4(Broadwell) [x86-64] |
메모리 | 112~448GiB | |
로컬 스토리지 | 1개 디스크 | 736~2948GiB |
원격 스토리지 | 12~32개 디스크 | 20000~80000 IOPS 200~800MBps |
네트워크 | 4~8NIC | |
바로 연결 | 1~4GPU | Nvidia Tesla P100 GPU(16GB) |
NCv3 시리즈
NCv3 시리즈 VM은 NVIDIA Tesla V100 GPU로 구동됩니다. 이러한 GPU는 NCv2 시리즈보다 1.5배의 계산 성능을 제공할 수 있습니다. 고객은 저수지 모델링, DNA 배열, 단백질 분석, 몬테카를로 시뮬레이션 등 기존 HPC 워크로드에 이러한 업데이트된 GPU를 활용할 수 있습니다. NC24rs v3 구성은 긴밀하게 결합된 병렬 컴퓨팅 작업에 최적화된 짧은 대기 시간과 높은 처리량의 네트워크 인터페이스를 제공합니다. GPU에 더해 NCv3 시리즈 VM은 Intel Xeon E5-2690 v4 (Broadwell) CPU로도 구동됩니다.
Important
이 VM 시리즈에 대해서는 구독의 vCPU(코어) 할당량이 초기에 각 지역에서 0으로 설정됩니다. 사용 가능한 지역에서 이 시리즈에 대한 vCPU 할당량 증가를 요청합니다. 이러한 SKU는 평가판 또는 Visual Studio 구독자 Azure 구독에 사용할 수 없습니다. 구독 수준에서 SKU의 선택이나 배포를 지원하지 않을 수 있습니다.
요소 | 수량 개수 단위 |
사양 SKU ID, 성능 단위 등 |
---|---|---|
프로세서 | 6~24개 vCPU | Intel Xeon E5-2690 v4(Broadwell) [x86-64] |
메모리 | 112~448GiB | |
로컬 스토리지 | 1개 디스크 | 736~2948GiB IOPS(RR) MBps(RR) |
원격 스토리지 | 12~32개 디스크 | 20000~80000 IOPS 200~800MBps |
네트워크 | 4~8NIC | Mbps |
가속기 | 1~4개 | Nvidia Tesla V100 GPU(16GB) |
NCasT4_v3 시리즈
NCasT4_v3 시리즈 가상 머신은 NVIDIA Tesla T4 GPU 및 AMD EPYC 7V12(Rome) CPU로 구동됩니다. VM은 최대 4개의 NVIDIA T4 GPU와 각각 16GB의 메모리, 최대 64개의 비 멀티스레드 AMD EPYC 7V12(Rome) 프로세서 코어(기본 주파수 2.45GHz, 전체 코어 최대 주파수 3.1GHz 및 단일 코어 피크를 갖추고 있습니다. 3.3GHz의 주파수) 및 440GiB의 시스템 메모리. 이러한 가상 머신은 사용자 생성 요청의 실시간 추론 또는 NVIDIA의 GRID 드라이버 및 가상 GPU 기술을 사용하는 대화형 그래픽 및 시각화 워크로드와 같은 AI 서비스 배포에 이상적입니다. CUDA, TensorRT, Caffe, ONNX 및 기타 프레임워크를 기반으로 하는 표준 GPU 컴퓨팅 워크로드 또는 OpenGL 및 DirectX를 기반으로 하는 GPU 가속 그래픽 애플리케이션을 NCasT4_v3 시리즈에서 사용자와 가까운 위치에서 경제적으로 배포할 수 있습니다.
요소 | 수량 개수 단위 |
사양 SKU ID, 성능 단위 등 |
---|---|---|
프로세서 | 4~64개 vCPU | AMD EPYC 7V12(로마) [x86-64] |
메모리 | 28~440GiB | |
로컬 스토리지 | 1개 디스크 | 176~2816GiB IOPS(RR) MBps(RR) |
원격 스토리지 | 8~32개 디스크 | IOPS MBps |
네트워크 | 2~8 NIC | 8000~32000Mbps |
바로 연결 | 1~4GPU | Nvidia Tesla T4 GPU(16GB) |
NC_A100_v4 시리즈
NC A100 v4 시리즈 VM(가상 머신)은 Azure GPU 제품군에 새롭게 추가된 제품입니다. 실제 Azure Applied AI 학습 및 일괄 처리 유추 워크로드에 이 시리즈를 사용할 수 있습니다. NC A100 v4 시리즈는 NVIDIA A100 PCIe GPU 및 3세대 AMD EPYC™ 7V13(밀라노) 프로세서로 구동됩니다. VM에는 최대 4개의 NVIDIA A100 PCIe GPU(각각 80GB 메모리 포함), 최대 96개의 비다중 스레드 AMD EPYC Milan 프로세서 코어 및 880GiB의 시스템 메모리가 탑재되어 있습니다. 이러한 VM은 다음과 같은 실제 적용된 AI 워크로드에 적합합니다.
GPU 가속 분석, 전 및 후처리 자율 모델 학습 오일 및 가스 저수지 시뮬레이션 기계 학습(ML) 개발 비디오 처리 AI/ML 웹 서비스로 데이터베이스 일괄 처리 추론
요소 | 수량 개수 단위 |
사양 SKU ID, 성능 단위 등 |
---|---|---|
프로세서 | 24~96개 vCPU | AMD EPYC 7V13(밀라노) [x86-64] |
메모리 | 220~880GiB | |
로컬 스토리지 | 1개 임시 디스크 1~4개 NVMe 디스크 |
64~256GiB 임시 디스크 960GiB NVMe 디스크 |
원격 스토리지 | 8~32개 디스크 | 30000~120000 IOPS 1000~4000MBps |
네트워크 | 2~8 NIC | 20000~80000Mbps |
바로 연결 | 1~4GPU | Nvidia PCIe A100 GPU(80GB) |
이전 세대 NC 제품군 시리즈
이전 크기는 이전 세대 크기를 참조하세요.
기타 사이즈 정보
사용 가능한 모든 크기 목록: 크기
가격 계산기: 가격 계산기
디스크 유형에 대한 정보: 디스크 유형
다음 단계
ACU(Azure 컴퓨팅 단위)가 Azure SKU 간의 Compute 성능을 비교하는 데 어떻게 도움을 줄 수 있는지 알아봅니다.
하나의 Azure 구독에 할당된 하나 이상의 가상 머신을 호스팅할 수 있는 실제 서버에 대해서는 Azure Dedicated Host를 확인합니다.
Azure Virtual Machines 모니터링 방법을 알아봅니다.