back
NVIDIA Tesla H100 Tensor 96GB Server VDI KI GPU SXM5 PCIe x16 350W
Product No.: A39651
Base price: 26.221,00 €
incl.
19% MwSt | excl. Shipping
Price excl. VAT: 22.034,45 €
e.g. lease term 36 Months: € incl. / € excl.
To leasing calculator
Availability:
Shipping time: 1-2 Days + shipping
Weight KG: 1.95kg
Vendor / OEM: NVIDIA /
Model: Tesla Ampere
PN: A100 #
Controller Type: Grafik
Host Bus: PCIe x16
Interface: x
TDP (Watt): 350
NVIDIA Tesla H100 96 GB – Extreme Performance für AI & HPC
Die NVIDIA Tesla H100 96 GB ist das Flaggschiff für moderne KI-Workloads, Large Language Models, HPC und Data Analytics.
Basierend auf der Hopper-Architektur liefert sie einen massiven Leistungssprung gegenüber der A100 und setzt neue Maßstäbe in Training, Inference und wissenschaftlichem Rechnen.
Dank 96 GB HBM3-Speicher, extrem hoher Speicherbandbreite und 4th-Gen Tensor Cores ermöglicht die H100 das effiziente Training
und den Betrieb selbst größter Modelle mit maximaler Energieeffizienz und Skalierbarkeit für Rechenzentren.
Technische Highlights
konzipiert für:
High-Performance-Computing
Deep-Learning-Training und -Inferenz maschinelles Lernen
Datenanalysen und Grafik
GPU-Architektur: NVIDIA Hopper (H100)
Speicher: 96 GB HBM3
Speicherbandbreite: bis zu 3,35 TB/s
Tensor Cores: 4. Generation (FP8, FP16, BF16, TF32, INT8)
FP8 AI Performance: bis zu ~4.000 TFLOPS
FP16 / BF16: bis zu ~1.979 TFLOPS
FP64: bis zu ~60 TFLOPS
Leistungsaufnahem: 350W
Interconnect: NVLink (bis 900 GB/s GPU-zu-GPU)
PCIe: PCIe 5.0
Virtualisierung: MIG (Multi-Instance GPU)
Zielanwendungen: AI Training & Inference, LLMs, HPC, Simulation, Data Science
Vorteile auf einen Blick
Enorme KI-Performance pro Watt
Optimal für LLMs & Generative AI
Maximale Speichergröße & Bandbreite
Skalierbar für Multi-GPU-Cluster
Zukunftssicher durch PCIe 5.0 & NVLink
Die NVIDIA Tesla H100 96 GB ist das Flaggschiff für moderne KI-Workloads, Large Language Models, HPC und Data Analytics.
Basierend auf der Hopper-Architektur liefert sie einen massiven Leistungssprung gegenüber der A100 und setzt neue Maßstäbe in Training, Inference und wissenschaftlichem Rechnen.
Dank 96 GB HBM3-Speicher, extrem hoher Speicherbandbreite und 4th-Gen Tensor Cores ermöglicht die H100 das effiziente Training
und den Betrieb selbst größter Modelle mit maximaler Energieeffizienz und Skalierbarkeit für Rechenzentren.
Technische Highlights
konzipiert für:
High-Performance-Computing
Deep-Learning-Training und -Inferenz maschinelles Lernen
Datenanalysen und Grafik
GPU-Architektur: NVIDIA Hopper (H100)
Speicher: 96 GB HBM3
Speicherbandbreite: bis zu 3,35 TB/s
Tensor Cores: 4. Generation (FP8, FP16, BF16, TF32, INT8)
FP8 AI Performance: bis zu ~4.000 TFLOPS
FP16 / BF16: bis zu ~1.979 TFLOPS
FP64: bis zu ~60 TFLOPS
Leistungsaufnahem: 350W
Interconnect: NVLink (bis 900 GB/s GPU-zu-GPU)
PCIe: PCIe 5.0
Virtualisierung: MIG (Multi-Instance GPU)
Zielanwendungen: AI Training & Inference, LLMs, HPC, Simulation, Data Science
Vorteile auf einen Blick
Enorme KI-Performance pro Watt
Optimal für LLMs & Generative AI
Maximale Speichergröße & Bandbreite
Skalierbar für Multi-GPU-Cluster
Zukunftssicher durch PCIe 5.0 & NVLink
Item condition: refurbished, Grade A. The item has been completely tested / refurbished.
manufacturer information:
info@nvidia.com
NVIDIA GmbH
2788 San Tomas Express Way
Santa Clara, CA 95051
USA
info@nvidia.com
NVIDIA GmbH
Adenauer Str. 20/A4
52146 Würselen
Deutschland



