Speziell für Hochleistungs-KI-Workloads entwickelt

Adaptives Routing, In-Network-Computing und Congestion-Control-Architektur ermöglichen es InfiniBand, den anspruchsvollen Anforderungen von HPC- und KI-Clustern gerecht zu werden. Diese Optimierungen gewährleisten nahtlosen Datenfluss, eliminieren Engpässe und ermöglichen effiziente Ressourcennutzung, was zu überlegener Leistung und betrieblicher Effizienz für komplexe Infrastrukturen führt.

Hohe Leistung, niedrige Latenz

Verlustfreie Übertragung mit kreditbasierter Flusskontrolle

Adaptives Routing für optimale Lastverteilung

In-Network-Computing mit SHARP-Protokoll

Skalierbarkeit mit flexiblen Topologien

Stabilität und Resilienz mit Self-Healing-Technologie

Skalierbare Architektur für Spitzen-KI-Leistung mit InfiniBand

Für groß angelegte InfiniBand-KI-Cluster-Bereitstellungen mit NVIDIA H100, H200 GPUs, den DGX-Lösungen (GB200, GB300) wird die Fat-Tree-Netzwerktopologie mit diesen kombiniert, die für die Handhabung intensiver KI-Workloads geeignet sind.

Immersion Cooling Solution

NADDOD InfiniBand-Netzwerklösungen für kleine bis große KI-Cluster

Flexible Lösungen, die auf verschiedene KI-Clustergrößen, Rechenzentrumslayouts und Verbindungsentfernungen zugeschnitten sind.

Kleine InfiniBand-KI-Rechenzentrumslösungen

Hochleistungs- und kosteneffektive Möglichkeit, skalierbarere KI-Cluster zu aktualisieren oder zu erstellen.

NDR-Multimode-Transceiver-Bereitstellung

InfiniBand NDR-Multimode-Transceiver bieten kosteneffektive, zuverlässige Leistung für kurze Entfernungen.

Typischer Anwendungsfall
Spine-zu-Leaf- und Leaf-zu-Server-Verbindungen unter 50 Metern.
Empfehlungen

Mittlere bis große InfiniBand-KI-Rechenzentrumslösungen

Hochleistungs- und kosteneffektive Möglichkeit, skalierbarere KI-Cluster zu aktualisieren oder zu erstellen.

NDR-Single-Mode-Transceiver und DAC/ACC-Kabel

InfiniBand NDR-Single-Mode-Transceiver ermöglichen stabile, langstreckige Verbindungen, während DAC-Kabel die Kosten und den Stromverbrauch senken. Zusammen bieten sie eine effiziente Lösung für mittlere bis große Cluster.

Single-Mode-Transceiver + 800G DAC/ACC-Kabel
Typischer Anwendungsfall
Spine- und Leaf-Switches gemeinsam oder in benachbarten Racks für kurze DAC-Verbindungen. Single-Mode-Transceiver handhaben längere Server-zu-Leaf-Entfernungen mit Hochgeschwindigkeits- und Niedriglatenz-Leistung.
Empfehlungen
Spine-zu-Leaf: 800G OSFP DAC/ACC-Kabel (unterstützt bis zu 5 Metern)
Leaf-zu-Server: 800G OSFP 2xDR4 und 400G OSFP DR4 (beide unterstützen bis zu 100 Metern)
Single-Mode-Transceiver + 800G Breakout DAC/ACC-Kabel
Typischer Anwendungsfall
Breakout-DAC-Kabel verbinden Server mit Leaf-Switches in benachbarten Racks. Für Leaf-zu-Spine-Entfernungen über 50 Meter und bis zu 2 Kilometern bieten Single-Mode-Transceiver zuverlässige, hochleistungsfähige Konnektivität.
Empfehlungen
Spine-zu-Leaf: 800G OSFP 2xFR4 - 800G OSFP 2xFR4 (unterstützt bis zu 2 Kilometern; geeignet für Verbindungen zwischen Gebäuden) oder 800G OSFP 2xDR4 - 800G OSFP 2xDR4 (optimiert für Entfernungen unter 500 Metern mit hoher Portdichte) Transceiver.
Leaf-zu-Server: 800G OSFP Breakout DAC/ACC-Kabel (unterstützt bis zu 5 Metern)

Groß angelegte InfiniBand-KI-Rechenzentrumslösungen

Erfüllung der extremen Bandbreiten- und Latenzanforderungen von Billionen-Parameter-Ultra-Großmodellen.

XDR/NDR-Transceiver und DAC/ACC-Kabel

Für große KI-Cluster wird häufig ein Hybrid-Ansatz verwendet, der DAC-Kabel mit XDR- oder NDR-Transceivern kombiniert. Er kombiniert ultrahohe Geschwindigkeiten für anspruchsvolle KI-Workloads mit kosteneffizienter Infrastruktur.

XDR-Transceiver + XDR-Breakout-DAC/ACC-Kabel
Typischer Anwendungsfall
Wenn die Konnektivität der Rechenknoten bei 800Gp/s liegt, verwenden kurze Entfernungen in Racks und zwischen Racks 1,6T-Kupferkabel, während Langstreckenverbindungen 1,6T-XDR-Single-Mode-Module verwenden, was die Kosten im Vergleich zur Verwendung von Single-Mode-Modulen für alle Verbindungen reduziert.
Empfehlungen
Spine-zu-Leaf:1,6T OSFP224 2xDR4 (unterstützt bis zu 500 Metern)

XDR- und NDR-Transceiver + NDR-Breakout-DAC/ACC-Kabel

Typischer Anwendungsfall
Während des Übergangs von NDR- zu XDR-Netzwerken balancieren Hybrid-Setups Leistungsverbesserungen mit Effizienz. Für Rechenknoten, die mit 400 Gb/s-NICs arbeiten, arbeitet die Serverseite weiterhin mit NDR-Optikmodulen und -kabeln, während Spine-zu-Leaf-Verbindungen XDR-Transceiver für maximalen Durchsatz übernehmen.
Empfehlungen
Spine-zu-Leaf: 1,6T OSFP224 2xDR4 (unterstützt bis zu 500 Metern)

Häufige Netzwerkprobleme, die die KI-Trainingseffizienz beeinträchtigen

80% der KI-Trainingsunterbrechungen stammen von Netzwerkseitenproblemen95% der Netzwerkprobleme sind oft mit fehlerhaften optischen Verbindungen verbunden

NADDOD - Schutz von KI-Clustern vor Trainingsunterbrechungen

Broadcom DSP und VCSEL liefern ultra-niedrige BER und Stabilität

Rigorose Kompatibilität über NVIDIA-Ökosysteme hinweg

Branchenführende Fertigung gewährleistet konsistente Qualität und schnelle Lieferung

Umfassendes Produktportfolio mit anpassbaren Lösungen

Umfangreiche Expertise und engagierter Support für InfiniBand-Cluster-Bereitstellungen

NADDOD InfiniBand-Produktportfolio für KI-Workloads

InfiniBand-Transceiver und -Kabel

NVIDIA Quantum-X800- und Quantum-2-Konnektivitätsoptionen ermöglichen flexible Topologien mit einer Vielzahl von Transceivern, MPO-Steckverbindern, ACC und DACs. Rückwärtskompatibilität verbindet 800b/s- und 400Gb/s-Cluster mit bestehenden 200Gb/s- oder 100Gb/s-Infrastrukturen und gewährleistet nahtlose Skalierbarkeit und Integration.

InfiniBand XDR Optics and Cables InfiniBand NDR Optics and Cables

InfiniBand-Switches

Die NVIDIA Quantum-X800 und Quantum-2 sind darauf ausgelegt, die Anforderungen von Hochleistungs-KI- und HPC-Netzwerken zu erfüllen und bieten 800 Gb/s bzw. 400 Gb/s pro Port und sind in luftgekühlten oder flüssigkeitsgekühlten Konfigurationen verfügbar, um verschiedenen Rechenzentrumsanforderungen gerecht zu werden.

Quantum-X800-Switches Quantum-2 Switches

InfiniBand-Adapter/NICs

Der NVIDIA ConnectX-8- und ConnectX-7-InfiniBand-Adapter bietet unvergleichliche Leistung für KI- und HPC-Workloads mit einzelnen oder doppelten Netzwerkports mit Geschwindigkeiten von bis zu 800Gb/s, verfügbar in mehreren Formfaktoren, um verschiedene Bereitstellungsanforderungen zu erfüllen.

ConnectX-8-Adapter ConnectX-7-Adapter

Was Kunden sagen

Unsere InfiniBand-Konfiguration verwendet NADDODs Transceiver und Kabel - solide Leistung!
Wir verwenden NADDOD-Optik für unsere InfiniBand-Konfiguration. Große Qualität und Leistung.
Perfekt!👍 Kann mir keine einfachere Lösung für unsere Infrastruktur vorstellen.
Zuverlässige Produkte und großartiger Support
NADDOD versteht wirklich unsere Bedürfnisse! Beste Wahl für KI-Netzwerke!
naddod infiniband ndr transceiver
infiniband cluster
naddod infiniband ndr transceiver
infiniband clusterinfiniband cluster

Kontaktieren Sie uns

Partner mit NADDOD, um Ihr InfiniBand-Netzwerk für die nächste Generation von KI-Innovationen zu beschleunigen

+1
Ich stimme der Datenschutzrichtlinie und den Nutzungsbedingungen von NADDOD zu.
Einreichen