Mellanox NVIDIA ConnectX-6 VPI MCX653105A-HDAT-SP - Single Pack


1.299,00 € Netto: (€ 1091.6)
inkl. 19% USt. , zzgl. Versand
Knapper Lagerbestand
Lieferdatum: 08.05.2024 - 13.05.2024 (DE - Ausland abweichend)
Nur noch 1 verfügbar
Stk.


Beschreibung
HPC-Umgebungen
Durch die Bereitstellung von 200 Gb/s HDR InfiniBand, 100 Gb/s HDR100 InfiniBand und 200 Gb/s Ethernet-Geschwindigkeiten ist ConnectX-6 VPI das perfekte Produkt, um HPC-Rechenzentren in Richtung Exascale-Leistung und -Skalierbarkeit zu führen. ConnectX-6 unterstützt das sich entwickelnde Co-Design-Paradigma, das das Netzwerk in einen verteilten Prozessor verwandelt. Mit seinen In-Network-Computing- und In-Network-Memory-Funktionen verlagert ConnectX-6 die Berechnungen noch weiter in das Netzwerk, wodurch CPU-Zyklen eingespart und die Netzwerkeffizienz erhöht werden. ConnectX-6 VPI nutzt sowohl IBTA RDMA (Remote Direct Memory Access) als auch RoCE (RDMA over Converged Ethernet) und bietet damit niedrige Latenzzeiten und hohe Leistung. ConnectX-6 verbessert die RDMA-Netzwerkfunktionen noch weiter, indem es eine End-to-End-Flusskontrolle auf Paketebene bietet.

Maschinelles Lernen und Big Data-Umgebungen
Datenanalyse ist zu einer wesentlichen Funktion in vielen Unternehmensrechenzentren, Clouds und Hyperscale-Plattformen geworden. Maschinelles Lernen ist auf einen besonders hohen Durchsatz und niedrige Latenzzeiten angewiesen, um tiefe neuronale Netzwerke zu trainieren und die Erkennungs- und Klassifizierungsgenauigkeit zu verbessern. Mit einem Durchsatz von 200 Gbit/s ist ConnectX-6 die perfekte Lösung, um Anwendungen des maschinellen Lernens das erforderliche Maß an Leistung und Skalierbarkeit zu bieten. ConnectX-6 nutzt die RDMA-Technologie, um niedrige Latenzzeiten und hohe Leistung zu erzielen. ConnectX-6 verbessert die RDMA-Netzwerkfähigkeiten noch weiter, indem es eine End-to-End-Flusskontrolle auf Paketebene bietet.

Sicherheit
Die ConnectX-6-Verschlüsselung auf Blockebene stellt eine entscheidende Innovation für die Netzwerksicherheit dar. Beim Speichern oder Abrufen von Daten im Transit werden diese ver- und entschlüsselt. Die ConnectX-6-Hardware entlastet die CPU von der IEEE AES-XTS-Verschlüsselung/Entschlüsselung und spart so Latenzzeit und CPU-Auslastung. Durch die Verwendung dedizierter Verschlüsselungsschlüssel wird auch der Schutz von Benutzern gewährleistet, die dieselben Ressourcen nutzen. Durch die Durchführung der Blockspeicher-Verschlüsselung im Adapter macht ConnectX-6 selbstverschlüsselte Festplatten überflüssig. Dies gibt Kunden die Freiheit, ihr bevorzugtes Speichergerät zu wählen, einschließlich byteadressierbarer und NVDIMM-Geräte, die traditionell keine Verschlüsselung bieten. Darüber hinaus kann ConnectX-6 die Einhaltung der Federal Information Processing Standards (FIPS) unterstützen. ConnectX-6 enthält auch eine Hardware-Root-of-Trust (RoT), die HMAC verwendet und sich auf einen geräteeigenen Schlüssel stützt. Dies bietet sowohl sicheren Boot- als auch Klonschutz. ConnectX-6 bietet zuverlässigen Geräte- und Firmware-Schutz sowie sichere Debugging-Funktionen, ohne dass ein physischer Zugriff erforderlich ist.

Speicherumgebungen
Das sich entwickelnde NVMe-over-Fabric (NVMe-oF)-Protokoll nutzt RDMA-Konnektivität für den effizienten Fernzugriff auf NVMe-Speichergeräte, während das End-to-End-NVMe-Modell eine geringe Latenz aufweist. Mit seinen NVMe-oF-Ziel- und Initiator-Offloads sorgt ConnectX-6 für eine weitere Optimierung von NVMe-oF und verbessert die CPU-Auslastung und Skalierbarkeit.

Cloud- und Web 2.0-Umgebung
Open vSwitch (OVS) ist ein Beispiel für einen virtuellen Switch, der es virtuellen Maschinen ermöglicht, untereinander und mit der Außenwelt zu kommunizieren. Softwarebasierte virtuelle Switches, die traditionell im Hypervisor untergebracht sind, sind CPU-intensiv, beeinträchtigen die Systemleistung und verhindern die volle Nutzung der verfügbaren CPU für Rechenfunktionen. Um solche Performance-Probleme zu lösen, bietet ConnectX-6 die Mellanox ASAP2 - Accelerated Switch and Packet Processing Technologie. ASAP2 entlastet den vSwitch/vRouter, indem die Datenebene in der NIC-Hardware verarbeitet wird, während die Steuerungsebene unverändert bleibt. Dadurch wird eine deutlich höhere vSwitch/vRouter-Leistung ohne die damit verbundene CPU-Last erreicht. Die von ConnectX-5 und ConnectX-6 unterstützten vSwitch/vRouter-Offload-Funktionen umfassen die Einkapselung und Entkapselung von Overlay-Netzwerk-Headern sowie zustandslose Offloads innerer Pakete, das Neuschreiben von Paket-Headern (wodurch NAT-Funktionalität ermöglicht wird), Hairpin und mehr. Darüber hinaus bietet ConnectX-6 intelligente flexible Pipeline-Funktionen, einschließlich programmierbarer flexibler Parser und flexibler Match-Action-Tabellen, die Hardware-Offloads für zukünftige Protokolle ermöglichen.
Allgemein
Gerätetyp
Netzwerkadapter
Formfaktor
Plug-in-Karte
Schnittstellentyp (Bustyp)
PCI Express 4.0 x16
PCI-Spezifikationsrevision
PCIe 1.1, PCIe 2.0, PCIe 3.0
Netzwerk
Ports
200Gb Ethernet / 200Gb Infiniband QSFP28 x 1
Anschlusstechnik
Kabelgebunden
Data Link Protocol
Gigabit Ethernet, 10 Gigabit Ethernet, 40 Gigabit Ethernet, 100 Gigabit Ethernet, 25 Gigabit Ethernet, 50 Gigabit Ethernet, 100 Gigabit InfiniBand, 200 Gigabit Ethernet, 200 Gigabit InfiniBand
Datenübertragungsrate
200 Gbps
Netzwerk/Transportprotokoll
TCP/IP, UDP/IP, iSCSI
Leistungsmerkmale
Auto-Negotiation, MPLS-Unterstützung, VLAN-Unterstützung, InfiniBand QDR Link-Unterstützung, Virtual Protocol Interconnect (VPI), Quality of Service (QoS), InfiniBand DDR-Link-Support, Jumbo-Frames-Support, PXE-Unterstützung, Large Send Offload (LSO), Large Receive Offload (LRO), Receive Side Scaling (RSS), UEFI-Support, InfiniBand FDR Link-Unterstützung, Engpasssteuerung, Advanced Error Reporting (AER), Extended Message-Signaled Interrupts (MSI-X), Header Data Split (HDS), Transmit Side Scaling (TSS), RDMA over Converged Ethernet (RoCE), InfiniBand-EDR-Verbindungsunterstützung, TLP Processing Hint (TPH), InfiniBand SDR Link-Support, Extended Reliable Connected transport (XRC), Dynamically Connected transport (DCT), Benutzermodus-Registrierung und Remapping des Speichers (UMR), On demand paging (ODP), Message Signaled Interrupts (MSI), InfiniBand HDR100 Link Support
Produktzertifizierungen
IEEE 802.1Q, IEEE 802.1p, IEEE 802.3ad (LACP), IEEE 802.3ae, IEEE 802.3ap, IEEE 802.3az, IEEE 802.3ba, IEEE 802.1AX, IEEE 802.1Qbb, IEEE 802.1Qaz, IEEE 802.1Qau, IBTA 1.3, IEEE 802.1Qbg, IEEE 1588v2, IEEE 802.3bj, IEEE 802.3bm, IEEE 802.3by
Erweiterung/Konnektivität
Schnittstellen
1 x 200Gb Ethernet / 200Gb Infiniband - QSFP28
Verschiedenes
Kennzeichnung
RoHS
Software / Systemanforderungen
Erforderliches Betriebssystem
FreeBSD, Microsoft Windows, Red Hat Enterprise Linux, CentOS
Bewertungen

Geben Sie die erste Bewertung für diesen Artikel ab und helfen Sie Anderen bei der Kaufentscheidung:

Frage zum Artikel
Bitte besuchen Sie auch unsere FAQ. Eventuell konnten wir Ihre Frage dort schon beantworten.
Kontaktdaten
Frage zum Artikel

(* = Pflichtfelder)

Bitte beachten Sie unsere Datenschutzerklärung

Loading ...
kein Bild
Artikelnummer:
HAN:
EAN:
ab *
/
zum Angebot
kein Bild
Artnr:
HAN:
EAN:
Sonderpreis
Topartikel
Bestseller
lagernd
Preis: ab *
/