NVIDIA A100
Testen Sie jetzt im MEGWARE Benchmark Center
Leistungsstarke End-to-End Plattform für KI und HPC im Rechenzentrum
Die NVIDIA A100 Tensor Core-GPU bietet eine beispiellose Beschleunigung in jeder Größenordnung für KI, Datenanalyse & High-Performance Computing (HPC), zur Bewältigung der schwierigsten Computing-Herausforderungen. Als „Motor“ der NVIDIA-Rechenzentrum-Plattform lässt sich A100 auf Tausende Grafikprozessoren skalieren oder mit der NVIDIA Multi-Instance-GPU(MIG)-Technologie in sieben GPU-Instanzen aufteilen, um Workloads aller Größen zu beschleunigen.
JETZT KOSTENLOS TESTEN
NVIDIA A100 Technische Daten
Peak FP64 | 9.7 TF |
Peak FP64 Tensor Core | 19.5 TF |
Peak FP32 | 19.5 TF |
Peak TF32 Tensor Core | 156 TF | 312 TF* |
Peak BFLOAT16 Tensor Core | 312 TF | 624 TF* |
Peak FP16 Tensor Core | 312 TF | 624 TF* |
Peak INT8 Tensor Core | 624 TOPS | 1,248 TOPS* |
Peak INT4 Tensor Core | 1,248 TOPS | 2,496 TOPS* |
Grafikprozessorspeicher | 40 GB |
GPU-Speicherbandbreite | 1,555 GB/s |
Verbindungen | NVIDIA NVLink 600 GB/s** PCIe Gen4 64 GB/s |

NVIDIA A100
für PCIe
Multi-instance GPUs | Verschiedene Instanzgrößen mit bis zu 7 MIG mit 5 GB |
Formfaktor | PCIe |
Max. TDP-Kraft | 250W |
Leistung von Spitzenapps bereitgestellt | 90% |