Skip to main content

NVIDIA A100

Testen Sie jetzt im MEGWARE Benchmark Center

Leistungsstarke End-to-End Plattform für KI und HPC im Rechenzentrum

Die NVIDIA A100 Tensor Core-GPU bietet eine beispiellose Beschleunigung in jeder Größenordnung für KI, Datenanalysen und High-Performance Computing (HPC), um die schwierigsten Computing-Herausforderungen der Welt zu bewältigen.

Als „Motor“ der NVIDIA-Rechenzentrum-Plattform lässt sich A100 effizient auf Tausende Grafikprozessoren skalieren oder mit der NVIDIA Multi-Instance-GPU(MIG)-Technologie in sieben GPU-Instanzen aufteilen, um Workloads aller Größen zu beschleunigen.

NVIDIA A100 Technische Daten

Peak FP649.7 TF
Peak FP64 Tensor Core19.5 TF
Peak FP3219.5 TF
Peak TF32 Tensor Core156 TF | 312 TF*
Peak BFLOAT16 Tensor Core312 TF | 624 TF*
Peak FP16 Tensor Core312 TF | 624 TF*
Peak INT8 Tensor Core624 TOPS | 1,248 TOPS*
Peak INT4 Tensor Core1,248 TOPS | 2,496 TOPS*
Grafikprozessorspeicher40 GB
GPU-Speicherbandbreite1,555 GB/s
Verbindungen

NVIDIA NVLink 600 GB/s**

PCIe Gen4 64 GB/s

 

NVIDIA A100

NVIDIA A100

für PCIe

Multi-instance GPUsVerschiedene Instanzgrößen mit bis zu 7 MIG mit 5 GB
FormfaktorPCIe
Max. TDP-Kraft250W
Leistung von Spitzenapps bereitgestellt90%

 

Testen Sie jetzt NVIDIA A100

im MEGWARE Benchmark Center