← Zurück zur Bibliothek
GPUs & Hardware Anbieter: NVIDIA

NVIDIA H200

Die NVIDIA H200 erweitert die H100-Architektur mit 141GB HBM3e-Speicher (1,75× mehr als H100) und 4,8TB/s Bandbreite (1,6× mehr). Entwickelt für: (1) Training von Modellen >100B-Parametern ohne Model Parallelism, (2) Long-Context-Inferenz (1M+ Token-Kontextfenster), (3) Handhabung größerer Batch-Größen für Inferenz-Effizienz. Gleiche Rechenleistung wie H100, aber deutlich mehr Speicher ermöglicht neue Anwendungsfälle. Verfügbar Q1 2024 auf großen Clouds. Anwendungsfälle: Training/Serving von Modellen wie GPT-4, Claude mit erweitertem Kontext, multimodale Modelle, die Vision+Sprache kombinieren, wissenschaftliche Simulationen, die massiven Speicher erfordern.

NVIDIA H200
gpus hardware nvidia h200 großer-speicher llm

Überblick

H200 löst den Speicher-Engpass für hochmoderne KI. Trainieren Sie 70B-Modelle ohne Model Parallelism, servieren Sie 100M+ Kontextlängen-Inferenz, führen Sie größere Batch-Größen für bessere GPU-Auslastung aus. Gleiche Tensor Cores und Transformer Engine wie H100, aber 141GB Speicher vs 80GB eröffnen neue Möglichkeiten. 4,8TB/s Bandbreite (vs 3TB/s H100) reduziert speichergebundene Engpässe. Besonders wertvoll für: Inferenz-Serving (passen mehr gleichzeitige Anfragen in Speicher), wissenschaftliches Rechnen (größere Simulationen), multimodale Modelle (verarbeiten mehr Bilder/Videos gleichzeitig).

Wichtige Spezifikationen

  • **Speicher**: 141GB HBM3e, 4,8TB/s Bandbreite
  • **Rechenleistung**: Gleich wie H100—1.979 TFLOPS FP8
  • **Speichervorteil**: 1,75× mehr Speicher als H100
  • **Bandbreite**: 1,6× mehr als H100
  • **Leistung/Formfaktor**: Ähnlich wie H100 SXM5
  • **Verfügbarkeit**: Q1 2024 auf AWS, GCP, Azure

Anwendungsfälle

  • **Long-Context-Inferenz**: Servieren Sie 1M+ Token-Kontexte (Claude, GPT-4 Turbo-Skala)
  • **Größere Batches**: Passen Sie 2× mehr gleichzeitige Anfragen für Inferenz
  • **Training**: 70B-175B-Modelle ohne Model-Parallelism-Komplexität
  • **Multimodal**: Verarbeiten Sie mehr Bilder/Video-Frames gleichzeitig
  • **Wissenschaftliches Rechnen**: Molekulardynamik, Wettersimulation mit größeren Datensätzen