Nvidia Unveils Faster and More Efficient H200 NVL AI Accelerators

Nvidia hat eine neue Version der Rechenbeschleuniger vorgestellt, die H200 NVL. Diese wurde für die Verarbeitung großer KI-Sprachmodelle entwickelt und soll bis zu 90 Prozent schneller sein als das vorherige Modell H100 NVL. Der Chip selbst bleibt unverändert, aber der lokale Speicher ist größer und schneller. Der Energieverbrauch der H200 NVL steigt auf 600 Watt, was 50 Prozent mehr ist als bei der H100 NVL. Trotzdem soll die H200 NVL effizienter arbeiten, wenn sie optimal ausgelastet ist. Die Leistungsaufnahme kann bei Bedarf reduziert werden.

Die H200 NVL kann mit anderen Karten über NVLink verbunden werden, was eine Bandbreite von 900 GByte/s ermöglicht. Die Verbindung zum Server erfolgt über PCIe 5.0 x16 mit bis zu 128 GByte/s. Supermicro hat auf der SC’24-Konferenz einen Server mit acht H200 NVL-Karten und zwei Intel Xeon 6900P-CPUs vorgestellt. Nvidia hat bisher keine Preise für die H200 NVL bekannt gegeben, während die H100 NVL für etwa 30.000 Euro im Einzelhandel erhältlich ist.

Es gibt verschiedene Versionen der H200, darunter PCIe- und SXM-Modelle. Die H200 SXM hat eine Leistungsaufnahme von 700 Watt, während die H200 NVL bis zu 600 Watt verbraucht. Beide Modelle haben 141 GByte HMB3e-Speicher mit einer Transferrate von 4,8 TByte/s. Im Vergleich dazu hat die H100 NVL 94 GByte HBM3-Speicher mit einer Transferrate von 3,9 TByte/s. Die maximale theoretische Rechenleistung der H200 NVL ist bei verschiedenen Berechnungen höher als die der H100 NVL.

Nvidia hat auch erste Versionen des Nachfolgers Blackwell vorgestellt. Der Grace Hopper Superchip GB200 kombiniert eine CPU mit 144 ARM-Kernen und zwei B200-Beschleunigern. Dieser Chip wird bereits in einigen neuen Supercomputern eingesetzt. Nvidia kündigte zudem ein neues GB200-Paket an, das GB200 NVL4, das vier B200 mit zwei Grace-Chips kombiniert. Dieses Paket soll ab der zweiten Hälfte des Jahres 2025 erhältlich sein.

Ein GB200 NVL4 besteht aus zwei GB200 NVL2, die im Juni vorgestellt wurden. Das System bietet 768 GByte schnellen HBM3e-Speicher und 960 GByte LPDDR5X-Speicher an den Grace-Chips, was insgesamt 1,7 TByte RAM ergibt. Die maximale Leistungsaufnahme des GB200 NVL4 liegt bei 5,4 kW, was es besonders für wassergekühlte Systeme geeignet macht.

Die Entwicklungen von Nvidia zeigen, dass sie weiterhin im Bereich der Hochleistungsrechenbeschleuniger aktiv sind. Die neuen Produkte sollen die Verarbeitung großer Datenmengen in KI-Anwendungen beschleunigen und gleichzeitig effizienter arbeiten. Die Kombination aus schnellerem Speicher und verbesserter Energieeffizienz macht die neuen Modelle besonders attraktiv für den Einsatz in Supercomputern und großen Rechenzentren.