H100 verfügt über Tensor-Recheneinheiten der vierten Generation und die Transformer Engine mit FP8-Präzision, die 9-mal schnelleres Training im Vergleich zur vorherigen Generation für MoE-Modelle (Mixture of Experts) bietet. Die Kombination aus NVlink der vierten Generation, die eine GPU-zu-GPU-Verbindung von 900 Gigabyte pro Sekunde (GB/s) besitzt, NVLINK Switch System, das die Kommunikation durch jeden Grafikprozessor über Knoten hinweg beschleunigt, PCIe der 5. Generation und NVIDIA Magnum IO -Software bietet effiziente Skalierbarkeit von kleinen Unternehmen bis hin zu riesigen, einheitlichen GPU-Clustern. Die Bereitstellung von H100-Grafikprozessoren im Rechenzentrumsmaßstab bietet hervorragende Leistung sowie die nächste Generation von Exascale High-Performance-Computing (HPC) und Billionen-Parameter-KI für alle Forscher.
Echtzeit-Deep-Learning-Inferenz
KI löst eine Vielzahl von geschäftlichen Herausforderungen mit einer ebenso breiten Palette an neuronalen Netzen. Ein hervorragender KI-Inferenzbeschleuniger muss nicht nur höchste Leistung, sondern auch die Vielseitigkeit bieten, um diese Netzwerke zu beschleunigen. H100 erweitert die hohe Position von NVIDIA bei Inferenz durch mehrere Fortschritte, die die Inferenz um das 30-Fache beschleunigen und die niedrigste Latenz bieten. Tensor-Recheneinheiten der vierten Generation beschleunigen alle Präzisionen, einschließlich FP64, TF32, FP32, FP16 sowie INT8, und die Transformer Engine verwendet FP8 und FP16 zusammen, um die Speicherauslastung zu reduzieren, die Leistung zu steigern und gleichzeitig die Genauigkeit für große Sprachmodelle aufrechtzuerhalten.
Exascale High-Performance Computing
Die NVIDIA-Rechenzentrumsplattform bietet konsistent Leistungssteigerungen, die über das Mooresche Gesetz hinausgehen. Die KI-Funktionen von H100 verstärken die Leistungsfähigkeit von HPC und KI weiter, um für Wissenschaftler und Forscher, die an der Lösung der wichtigsten Herausforderungen der Welt arbeiten, die Zeit bis zum Entdecken zu verkürzen. H100 verdreifacht die Gleitkommaoperationen pro Sekunde (FLOPS) der Tensor Cores mit doppelter Genauigkeit und liefert 60 TeraFLOPS FP64-Computing für HPC. KI-gestützte HPC-Anwendungen können die TF32-Präzision von H100 nutzen, um einen PetaFLOP Durchsatz für Matrixmultiplikationsoperationen mit einfacher Genauigkeit zu erreichen, ohne Codeänderungen. H100 verfügt außerdem über DPX-Anweisungen, die bei dynamischen Programmieralgorithmen wie Smith-Waterman für die DNA-Sequenzausrichtung 7-mal mehr Leistung als NVIDIA A100 Tensor Core-GPUs und eine 40-fache Beschleunigung gegenüber herkömmlichen Servern mit Dual-Socket-CPUs allein bieten.
Beschleunigte Datenanalysen
Datenanalysen nehmen bei der Entwicklung von KI-Anwendungen häufig den Großteil der Zeit in Anspruch. Da große Datensätze auf mehrere Server verteilt sind, werden Scale-Out-Lösungen mit reinen CPU-Standardservern durch fehlende skalierbare Rechenleistung ausgebremst. Beschleunigte Server mit H100 liefern die Rechenleistung - zusammen mit 3 Terabyte pro Sekunde (TB/s) Speicherbandbreite pro Grafikprozessor und Skalierbarkeit mit NVLink und NVSwitch -, um Datenanalysen mit hoher Leistung und Skalierung zur Unterstützung riesiger Datensätze zu bewältigen. In Kombination mit NVIDIA Quantum-2 Infiniband, der Magnum-IO-Software, dem grafikprozessorbeschleunigten Spark 3.0 und NVIDIA RAPIDS ist die NVIDIA-Rechenzentrum-Plattform dazu in der Lage, diese riesigen Workloads mit einem unvergleichlichen Maß an Leistung und Effizienz zu beschleunigen.
Unternehmensfähige Auslastung
IT-Manager versuchen, die Auslastung (sowohl Spitzen- als auch Durchschnittsauslastung) der Rechenressourcen im Rechenzentrum zu maximieren. Sie setzen häufig eine dynamische Neukonfiguration der Rechenleistung ein, um Ressourcen der richtigen Größe für die verwendeten Workloads zu erhalten. Die zweite Generation von Multi-Instance GPU (MIG) in H100 maximiert die Auslastung jeder GPU, indem sie sicher in sieben separate Instanzen partitioniert wird. Mit vertraulicher Computing-Unterstützung ermöglicht H100 eine sichere End-to-End-Nutzung mit mehreren Mandanten, ideal für Cloud-Service-Provider-Umgebungen (CSP). Dank H100 mit MIG können Infrastrukturmanager ihre GPU-beschleunigte Infrastruktur standardisieren und gleichzeitig die Flexibilität sichern, GPU-Ressourcen mit größerer Granularität bereitzustellen, um Entwicklern sicher die richtige Menge an beschleunigter Rechenleistung zur Verfügung zu stellen und die Nutzung aller ihrer GPU-Ressourcen zu optimieren.
Integriertes vertrauliches Computing
Moderne vertrauliche Computing-Lösungen sind CPU-basiert, was für rechenintensive Workloads wie KI und HPC zu begrenzt ist. NVIDIA Confidential Computing ist eine integrierte Sicherheitsfunktion der NVIDIA Hopper-Architektur, die H100 zum guter Beschleuniger mit vertraulichen Computing-Funktionen macht. Nutzer können die Vertraulichkeit und Integrität Ihrer Daten und Anwendungen schützen und gleichzeitig von der unübertroffenen Beschleunigung der H100-Grafikprozessoren für KI-Workloads profitieren. Es entsteht eine hardwarebasierte vertrauenswürdige Ausführungsumgebung (TEE), die den gesamten Workload schützt und isoliert. Dieser wird auf einer einzigen H100-GPU, mehreren H100-GPUs innerhalb eines Knotens oder einzelnen MIG-Instanzen ausgeführt. GPU-beschleunigte Anwendungen können im TEE unverändert ausgeführt werden und müssen nicht partitioniert werden. Nutzer können die Leistungsfähigkeit von NVIDIA-Software für KI und HPC mit der Sicherheit einer Hardware-Root-of-Trust-Anwendung kombinieren, die von NVIDIA Confidential Computing angeboten wird.
Unerreichte Leistung für KI und HPC im großen Maßstab
Der Hopper Tensor-Core-Grafikprozessor wird die NVIDIA Grace Hopper CPU und GPU-Architektur unterstützen, die speziell für beschleunigtes Computing im Terabyte-Bereich entwickelt wurde und eine 10-mal höhere Leistung bei KI und HPC bei großen Modellen bietet. Die NVIDIA Grace-CPU nutzt die Flexibilität der Arm -Architektur, um eine CPU- und Serverarchitektur zu erstellen, die von Grund auf für beschleunigtes Computing entwickelt wurde. Die Hopper GPU wird mit der Grace CPU sowie der ultraschnellen Chip-zu-Chip-Verbindung von NVIDIA kombiniert und bietet eine Bandbreite von 900 GB/s, 7-mal schneller als PCIe der 5. Generation. Dieses innovative Design bietet eine 30-mal höhere Gesamt-Systemspeicherbandbreite im Vergleich zu den schnellsten gegenwärtig verfügbaren Servern und eine 10-mal höhere Leistung für Anwendungen mit einem Datenvolumen von mehreren Terabytes.
• Entfernen Sie alle Schutzfolien vorsichtig, um keine Oberflächen zu zerkratzen.
• Entsorgen Sie Verpackungen über das örtliche Recyclingsystem, nicht im Restmüll.
• Verwenden Sie ausschließlich passende Ladegeräte und überwachen Sie den Ladevorgang. Laden in Schlafräumen ist nicht empfohlen.
• Lagern Sie Akkus kühl, trocken und bei etwa 30–50 % Ladung. Laden Sie sie mindestens einmal pro Jahr nach, um eine Tiefentladung zu vermeiden.
• Entsorgen Sie defekte oder aufgeblähte Akkus sofort über kommunale Sammelstellen.
• Schließen Sie Netzteile nur an ordnungsgemäße 230V-Steckdosen mit maximal 16A Absicherung an.
• Decken Sie Netzteile nicht ab, damit sie Wärme abgeben können.
• Ziehen Sie beim Trennen stets am Stecker, nicht am Kabel.
• Lüftungsschlitze und Lüfter nie abdecken, um Überhitzung zu vermeiden.
• Arbeiten Sie ergonomisch: Bildschirm auf Augenhöhe, externe Tastatur und Maus verwenden, wenn Sie lange arbeiten.
• Geräte sind kein Spielzeug – Kinder und Tiere fernhalten.
• Bei optischen Laufwerken besteht Gefahr durch unsichtbare Laserstrahlung – nie geöffnet betreiben.
• Nicht aufladen, nicht zerdrücken, nicht erhitzen. Explosionsgefahr!
• Knopfzellen kühl und trocken lagern, niemals lose in der Tasche transportieren.
• Keine aggressiven oder scheuernden Reinigungsmittel verwenden.
• Vor jeder Reinigung Netzteil trennen und Gerät ausschalten.
• RoHS-Konformität garantiert den Verzicht auf verbotene Schadstoffe.
• Elektro- und Elektronikgeräte nicht im Hausmüll entsorgen, sondern über Sammelstellen.
• Vor Rückgabe immer persönliche Daten löschen.
• Legen Sie regelmäßig Pausen ein und achten Sie auf Warnsignale wie Ohrensausen.
• Beachten Sie die EU-Richtlinie 2003/10/EG zum Schutz vor Lärm.
• Halten Sie den empfohlenen Mindestabstand zum Monitor ein (ca. 50–70 cm).
• Nutzen Sie die 20-20-20-Regel: alle 20 Minuten 20 Sekunden in 20 m Entfernung schauen.
• Sollte es zu Funkstörungen kommen, trennen Sie das Gerät oder vergrößern Sie den Abstand zu anderen Geräten.
• Pole mit Klebeband abkleben, um Kurzschlüsse zu verhindern.
• Symbole auf Batterien: Hg = Quecksilber, Cd = Cadmium, Pb = Blei.
• Rückgabe kostenfrei an Sammelstellen oder Händler.
• Vor Abgabe persönliche Daten löschen (Eigenverantwortung).
• Verwenden Sie ein ESD-Armband oder arbeiten Sie auf einer geerdeten Fläche.
• Achten Sie auf die Traglast und stellen Sie Geräte standsicher auf.
• Bei Wandmontage stets die Herstellerangaben befolgen.
• Kabel nicht unter Teppichen quetschen oder knicken.
• Beschädigte Kabel sofort austauschen.
• Lagern Sie Geräte trocken, bei 0–40 °C und fern von direkter Sonneneinstrahlung.
• Vermeiden Sie hohe Luftfeuchtigkeit.
• Halten Sie Betriebssystem, Treiber und Firmware aktuell, um Sicherheitslücken zu vermeiden.
• Unsachgemäße Eingriffe können Garantieverlust und Gefahren verursachen.
• Ladevorgänge möglichst beaufsichtigen.
• Ladegeräte nicht mit Textilien abdecken.
• Nutzen Sie ergonomische Stühle und Tische.
• 20-20-20-Regel: alle 20 Minuten für 20 Sekunden in 20 m Entfernung schauen.