NVIDIA ConnectX-6 Dx MCX623106AC-CDAT - Crypto enabled

Zustand: Neuware, Bulk

2.049,00 € Netto: (€ 1721.85)
Knapper Lagerbestand
Lieferdatum: 02.12.2024 - 06.12.2024 (DE - Ausland abweichend)
Nur noch 1 verfügbar
Stk.


Beschreibung
Hochleistungs-Computing-Umgebungen
Mit seinen NVIDIA In-Network Computing- und In-Network Memory-Funktionen verlagert ConnectX-6 die Berechnungen noch weiter in das Netzwerk, wodurch CPU-Zyklen eingespart und die Netzwerkeffizienz erhöht werden. ConnectX-6 nutzt die RDMA-Technologie (Remote Direct Memory Access), die in der IBTA-Spezifikation (InfiniBand Trade Association) definiert ist, und sorgt so für niedrige Latenzzeiten und hohe Leistung. ConnectX-6 verbessert die RDMA-Netzwerkfähigkeiten sogar noch weiter, indem es eine End-to-End-Flusskontrolle auf Paketebene bietet.

Maschinelles Lernen und Big Data-Umgebungen
Die Datenanalyse ist in vielen Unternehmensrechenzentren, Clouds und Hyperscale-Plattformen zu einer wesentlichen Funktion geworden. Das maschinelle Lernen (ML) ist auf einen besonders hohen Durchsatz und niedrige Latenzzeiten angewiesen, um tiefe neuronale Netzwerke zu trainieren und die Erkennungs- und Klassifizierungsgenauigkeit zu verbessern. Mit seinem Durchsatz von 100 Gbit/s ist ConnectX-6 eine hervorragende Lösung, um ML-Anwendungen die erforderliche Leistung und Skalierbarkeit zu bieten.

Sicherheit einschließlich Verschlüsselung auf Blockebene
Die Block-Level-Verschlüsselung von ConnectX-6 stellt eine entscheidende Innovation für die Netzwerksicherheit dar. Bei der Speicherung oder dem Abruf von Daten im Transit werden diese ver- und entschlüsselt. Die ConnectX-6-Hardware entlastet die CPU von der IEEE AES-XTS-Verschlüsselung/Entschlüsselung und spart so Latenzzeit und CPU-Auslastung. Durch die Verwendung von dedizierten Verschlüsselungsschlüsseln wird außerdem der Schutz von Benutzern gewährleistet, die dieselben Ressourcen nutzen. Durch die Verschlüsselung des Blockspeichers im Adapter macht der ConnectX-6 selbstverschlüsselte Festplatten überflüssig. Dies gibt Kunden die Freiheit, ihr bevorzugtes Speichergerät zu wählen, einschließlich byteadressierbarer und NVDIMM-Geräte, die traditionell keine Verschlüsselung bieten. Darüber hinaus kann ConnectX-6 die Einhaltung der Federal Information Processing Standards (FIPS) gewährleisten.

Einführung von NVMe-oF in Speicherumgebungen
NVMe-Speichergeräte sind auf dem Vormarsch und bieten einen sehr schnellen Zugriff auf Speichermedien. Das sich entwickelnde NVMe-over-Fabrics (NVMe-oF)-Protokoll nutzt RDMA-Konnektivität für den effizienten Fernzugriff auf NVMe-Speichergeräte, während das End-to-End-NVMe-Modell eine geringe Latenz aufweist. Mit seinen NVMe-oF-Ziel- und Initiator-Offloads sorgt ConnectX-6 für eine weitere Optimierung von NVMe-oF und verbessert die CPU-Auslastung und Skalierbarkeit.

NVIDIA Socket Direct
ConnectX-6 bietet auch Optionen für NVIDIA Socket Direct-Konfigurationen, die die Leistung von Multi-Socket-Servern verbessern, indem jede CPU über ihre dedizierte PCIe-Schnittstelle auf das Netzwerk zugreifen kann. Dadurch können die Daten das QPI (UPI) und die andere CPU umgehen, was die Latenz, die Leistung und die CPU-Auslastung verbessert. Socket Direct ermöglicht auch NVIDIA GPU Direct RDMA für alle CPU/GPU-Paare, indem sichergestellt wird, dass die GPUs mit den CPUs in der Nähe der Adapterkarte verbunden sind. Socket Direct ermöglicht die Intel DDIO-Optimierung auf beiden Sockeln, indem eine direkte Verbindung zwischen den Sockeln und der Adapterkarte hergestellt wird. Die Socket Direct-Technologie wird durch eine Hauptkarte, die den ConnectX-6 beherbergt, und eine zusätzliche PCIe-Karte, die die restlichen PCIe-Lanes bereitstellt, ermöglicht. Die ConnectX-6 Socket Direct-Karte wird in zwei PCIe x16-Steckplätze eingebaut und mit einem Kabelbaum verbunden. Die beiden PCIe-x16-Steckplätze können auch an dieselbe CPU angeschlossen werden. In diesem Fall liegt der Hauptvorteil der Technologie in der Bereitstellung von 200 Gb/s für Server, die nur PCIe Gen3 unterstützen.

Host-Verwaltung
Das Host-Management umfasst NC-SI über MCTP über SMBus und MCTP über PCIe - Baseboard Management Controller (BMC)-Schnittstelle sowie PLDM für Monitor und Steuerung DSP0248 und PLDM für Firmware-Update DSP0267.
Allgemein
Gerätetyp
Netzwerkadapter
Formfaktor
Plug-in-Karte
Schnittstellentyp (Bustyp)
PCI Express 4.0 x16
PCI-Spezifikationsrevision
PCIe 1.1, PCIe 2.0, PCIe 3.0, PCIe 4.0
Netzwerk
Ports
100 Gigabit QSFP56 x 2
Anschlusstechnik
Kabelgebunden
Data Link Protocol
10 Gigabit Ethernet, 40 Gigabit Ethernet, 100 Gigabit Ethernet, 25 Gigabit Ethernet, 50 Gigabit Ethernet
Datenübertragungsrate
100 Gbps
Netzwerk/Transportprotokoll
TCP/IP, UDP/IP, IPSec, SMB
Leistungsmerkmale
Firewall, MPLS-Unterstützung, Schutz vor DoS-Angriffen, Firmware aktualisierbar, QoS, PXE-Unterstützung, LSO, LRO, RSS, UEFI-Support, SR-IOV, Energy Efficient Ethernet, AER, Unterstützung von Prüfsummen-Offload, MSI-X, iSCSI remote boot, Ethernet-Remote-Start, TSS, RoCE, NC-SI, VXLAN, NVGRE, Link Aggregation, TPH, SDN, MSI, DPDK, iSCSI Extensions over RDMA (iSER), VLAN Tagging, ASAP, MCTP over SMBus, NFV, GENEVE-Support, NVMe-oF
Produktzertifizierungen
IEEE 802.1Q, IEEE 802.1p, IEEE 802.3ad (LACP), IEEE 802.3ae, IEEE 802.3ap, IEEE 802.3az, IEEE 802.3ba, IEEE 802.1AX, IEEE 802.1Qbb, IEEE 802.1Qaz, IEEE 802.1Qbg, IEEE 1588v2, IEEE 802.3bj, IEEE 802.3by, IEEE 802.3cd
Erweiterung/Konnektivität
Schnittstellen
2 x 100Gb Ethernet - SFP56
Verschiedenes
Verschlüsselungsalgorithmus
TLS, AES-GCM, 256 Bit, 128-bit AES-GCM, AES-XTS
Bewertungen

Geben Sie die erste Bewertung für diesen Artikel ab und helfen Sie Anderen bei der Kaufentscheidung:

  • Zustand:
  • Gerätetyp:
  • Festplattentyp:
  • Bus-Typ:
Frage zum Artikel
Bitte besuchen Sie auch unsere FAQ. Eventuell konnten wir Ihre Frage dort schon beantworten.
Kontaktdaten
Frage zum Artikel

(* = Pflichtfelder)

Bitte beachten Sie unsere Datenschutzerklärung

Loading ...
kein Bild
Artikelnummer:
HAN:
EAN:
ab *
/
zum Angebot
kein Bild
Artnr:
HAN:
EAN:
Sonderpreis
Topartikel
Bestseller
lagernd
Preis: ab *
/