





| 폼 팩터 | H100 SXM | H100 PCIe | H100 NVL2 |
|---|---|---|---|
| FP64 | 34테라플롭스 | 26테라플롭스 | 68 teraFLOPs |
| FP64 Tensor 코어 | 67테라플롭스 | 51테라플롭스 | 134 teraFLOPs |
| FP32 | 67테라플롭스 | 51테라플롭스 | 134 teraFLOPs |
| TF32 Tensor 코어 | 989테라플롭스* | 756테라플롭스* | 1,979 teraFLOPs1 |
| BFLOAT16 Tensor 코어 | 1,979테라플롭스 | 1,513테라플롭스 | 3,958 teraFLOPs1 |
| FP16 Tensor 코어 | 1,979테라플롭스 | 1,513테라플롭스 | 3,958 teraFLOPs1 |
| FP8 Tensor 코어 | 3,958테라플롭스 | 3,026테라플롭스 | 7,916 teraFLOPs1 |
| INT8 Tensor 코어 | 3,958TOPS* | 3,026TOPS* | 7,916 TOPS1 |
| GPU 메모리 | 80GB | 80GB | 188GB |
| GPU 메모리 대역폭 | 3.35TB/s | 2TB/s | 7.8TB/s |
| 디코더 | 7 NVDEC 7 JPEG |
7 NVDEC 7 JPEG |
14 NVDEC 14 JPEG |
| 최대 열 설계 전력(TDP) | 최대 700W(구성 가능) | 300~350W(구성 가능) | 2x 350-400W (구성 가능) |
| 멀티 인스턴스 GPU(MIG) | 최대 7개의 MIG, 각각 10GB | 각 12GB에서 최대 14 MIGS |
|
| 폼 팩터 | SXM | PCIe 듀얼 슬롯(공랭식) |
PCIe 2개 듀얼 슬롯 공랭식 |
| 인터커넥트 | NVLink: 900GB/s PCIe Gen5: 128GB/s | NVLINK: 600GB/s PCIe Gen5: 128GB/s | NVLink: 600GB/s PCIe Gen5: 128GB/s |
| 서버 옵션 | 4개 또는 8개의 GPU가 지원되는 NVIDIA HGX™ H100 파트너 및 NVIDIA-Certified Systems™ 8개의 GPU가 지원되는 NVIDIA DGX™ H100 | GPU가 1~8개인 파트너 인증 시스템 및 NVIDIA-Certified System™ | 파트너 및 NVIDIA 인증 시스템 (2~4쌍) |
| NVIDIA AI Enterprise | 애드온 | 포함 항목 | 추가 사항 |
| GPU 기능 | NVIDIA RTX A5000 |
|---|---|
| GPU 메모리 | 오류 수정 코드(ECC) 포함 24GB GDDR6 |
| 디스플레이 포트 | DisplayPort 1.4 4개* |
| 최대 소비 전력 | 230W |
| 그래픽 버스 | PCI Express Gen 4 x16 |
| 폼 팩터 | 4.4”H x 10.5”L 듀얼 슬롯 |
| 열처리 | 활성 |
| NVLink | 2Way 로우 프로파일(2슬롯 및 3슬롯 브리지) |
| 가상 GPU(vGPU) 소프트웨어 지원 | NVIDIA 가상 PC(vPC) 및 가상 애플리케이션(vApps), NVIDIA RTX vWS, NVIDIA 가상 컴퓨팅 서버 |
| vGPU 프로파일 지원 | 가상 GPU 라이선싱 설명서 보기 |
| VR 지원 | 확장 가능 |