Speziell für Hochleistungs-KI-Workloads entwickelt

Adaptives Routing, In-Network-Computing und Congestion-Control-Architektur ermöglichen es InfiniBand, den anspruchsvollen Anforderungen von HPC- und KI-Clustern gerecht zu werden. Diese Optimierungen gewährleisten nahtlosen Datenfluss, eliminieren Engpässe und ermöglichen effiziente Ressourcennutzung, was zu überlegener Leistung und betrieblicher Effizienz für komplexe Infrastrukturen führt.

Hohe Leistung, niedrige Latenz

InfiniBand erreicht End-to-End-Latenzen von nur 2 µs und Switch-Latenzen von bis zu 230 Nanosekunden (NDR), ideal für KI/ML-Workloads, die auf schnelle Datenverarbeitung angewiesen sind. Dies reduziert Kommunikationsverzögerungen und beschleunigt Modelltraining und Inferenzzyklen.

Verlustfreie Übertragung mit kreditbasierter Flusskontrolle

Mit einer kreditbasierten Flusskontrolle bietet InfiniBand ein wirklich verlustfreies Netzwerk, das Paketverluste mindert und sicherstellt, dass während der Datenübertragung keine Daten verloren gehen - entscheidend für zuverlässige, groß angelegte Datenverarbeitung.

Adaptives Routing für optimale Lastverteilung

Adaptives Multipath-Routing balanciert den Datenverkehr dynamisch, indem es optimale Pfade basierend auf Echtzeit-Stau auswählt. Es reduziert Engpässe, erhöht den Durchsatz und verbessert die Gesamteffizienz des Netzwerks, was InfiniBand ideal für Umgebungen mit schwankenden Datenlasten macht.

In-Network-Computing mit SHARP-Protokoll

Das Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) ermöglicht In-Network-Datenaggregation, reduziert Latenz und Datenbewegung. Durch das Auslagern von Kollektivoperationen von der CPU ins Netzwerk verbessert SHARP den Datendurchsatz und maximiert die Bandbreitennutzung, was rechenintensive Aufgaben beschleunigt.

Skalierbarkeit mit flexiblen Topologien

Mit Unterstützung von bis zu 48.000 Knoten in einem einzigen Subnetz eliminiert es ARP- und Broadcast-Overhead. Erweiterte Topologien, einschließlich Fat-Tree, Dragonfly+ und mehrdimensionalem Torus, bieten flexible, hochleistungsfähige Konfigurationen, die auf spezifische Anwendungsanforderungen zugeschnitten sind.

Stabilität und Resilienz mit Self-Healing-Technologie

Self-Healing-Netzwerktechnologie reduziert Netzwerk-Wiederherstellungszeiten auf nur 1 Millisekunde und gewährleistet hohe Verfügbarkeit und Resilienz - entscheidend für unterbrechungsfreie KI- und datenintensive Operationen.

Skalierbare Architektur für Spitzen-KI-Leistung mit InfiniBand

Für groß angelegte InfiniBand-KI-Cluster-Bereitstellungen mit NVIDIA H100, H200 GPUs, den DGX-Lösungen (GB200, GB300) wird die Fat-Tree-Netzwerktopologie mit diesen kombiniert, die für die Handhabung intensiver KI-Workloads geeignet sind.

  • Quantum-X800 XDR-Topologie(800G pro Knoten)
  • Quantum-X800 XDR + NDR-Topologie(400G pro Knoten)
  • Quantum-2 NDR-Topologie
  • Spine
    Quantum-X800-Switches
  • Leaf
    Quantum-X800-Switches
  • Server
    DGX-System
    ConnectX-8 C8180-Adapter
  • Spine-Leaf
    XDR-Optik
  • Leaf-Server
    XDR-Optik und
    XDR-Splitter-DACs

NADDOD InfiniBand-Netzwerklösungen für kleine bis große KI-Cluster

Flexible Lösungen, die auf verschiedene KI-Clustergrößen, Rechenzentrumslayouts und Verbindungsentfernungen zugeschnitten sind.

Kleine InfiniBand-KI-Rechenzentrumslösungen

Hochleistungs-InfiniBand-Netzwerkbereitstellung für kompakte KI-Rechenzentren

NDR-Multimode-Transceiver-Bereitstellung

InfiniBand NDR-Multimode-Transceiver bieten kosteneffektive, zuverlässige Leistung für kurze Entfernungen.

Typischer Anwendungsfall
Spine-zu-Leaf- und Leaf-zu-Server-Verbindungen unter 50 Metern.
Empfehlungen
Leaf-zu-Server:400G OSFP SR4-Transceiver

Mittlere bis große InfiniBand-KI-Rechenzentrumslösungen

Hochleistungs- und kosteneffektive Möglichkeit, skalierbarere KI-Cluster zu aktualisieren oder zu erstellen.

NDR-Single-Mode-Transceiver und DAC/ACC-Kabel

InfiniBand NDR-Single-Mode-Transceiver ermöglichen stabile, langstreckige Verbindungen, während DAC-Kabel die Kosten und den Stromverbrauch senken. Zusammen bieten sie eine effiziente Lösung für mittlere bis große Cluster.

Single-Mode-Transceiver + 800G DAC/ACC-Kabel
Typischer Anwendungsfall
Spine- und Leaf-Switches gemeinsam oder in benachbarten Racks für kurze DAC-Verbindungen. Single-Mode-Transceiver handhaben längere Server-zu-Leaf-Entfernungen mit Hochgeschwindigkeits- und Niedriglatenz-Leistung.
Empfehlungen
Spine-zu-Leaf: 800G OSFP DAC/ACC-Kabel (unterstützt bis zu 5 Metern)
Leaf-zu-Server: 800G OSFP 2xDR4 und 400G OSFP DR4 (beide unterstützen bis zu 100 Metern)
800G FR8 InfiniBand solution for AI data center
Single-Mode-Transceiver + 800G Breakout DAC/ACC-Kabel
Typischer Anwendungsfall
Breakout-DAC-Kabel verbinden Server mit Leaf-Switches in benachbarten Racks. Für Leaf-zu-Spine-Entfernungen über 50 Meter und bis zu 2 Kilometern bieten Single-Mode-Transceiver zuverlässige, hochleistungsfähige Konnektivität.
Empfehlungen
Spine-zu-Leaf: 800G OSFP 2xFR4 - 800G OSFP 2xFR4 (unterstützt bis zu 2 Kilometern; geeignet für Verbindungen zwischen Gebäuden) oder 800G OSFP 2xDR4 - 800G OSFP 2xDR4 (optimiert für Entfernungen unter 500 Metern mit hoher Portdichte) Transceiver.
Leaf-zu-Server: 800G OSFP Breakout DAC/ACC-Kabel (unterstützt bis zu 5 Metern)

Groß angelegte InfiniBand-KI-Rechenzentrumslösungen

Erfüllung der extremen Bandbreiten- und Latenzanforderungen von Billionen-Parameter-Ultra-Großmodellen.

XDR/NDR-Transceiver und DAC/ACC-Kabel

Für große KI-Cluster wird häufig ein Hybrid-Ansatz verwendet, der DAC-Kabel mit XDR- oder NDR-Transceivern kombiniert. Er kombiniert ultrahohe Geschwindigkeiten für anspruchsvolle KI-Workloads mit kosteneffizienter Infrastruktur.

XDR-Transceiver + XDR-Breakout-DAC/ACC-Kabel
Typischer Anwendungsfall
Wenn die Konnektivität der Rechenknoten bei 800Gp/s liegt, verwenden kurze Entfernungen in Racks und zwischen Racks 1,6T-Kupferkabel, während Langstreckenverbindungen 1,6T-XDR-Single-Mode-Module verwenden, was die Kosten im Vergleich zur Verwendung von Single-Mode-Modulen für alle Verbindungen reduziert.
Empfehlungen
Spine-zu-Leaf:1,6T OSFP224 2xDR4 (unterstützt bis zu 500 Metern)
800G FR8 InfiniBand solution for AI data center

XDR- und NDR-Transceiver + NDR-Breakout-DAC/ACC-Kabel

Typischer Anwendungsfall
Während des Übergangs von NDR- zu XDR-Netzwerken balancieren Hybrid-Setups Leistungsverbesserungen mit Effizienz. Für Rechenknoten, die mit 400 Gb/s-NICs arbeiten, arbeitet die Serverseite weiterhin mit NDR-Optikmodulen und -kabeln, während Spine-zu-Leaf-Verbindungen XDR-Transceiver für maximalen Durchsatz übernehmen.
Empfehlungen
Spine-zu-Leaf: 1,6T OSFP224 2xDR4 (unterstützt bis zu 500 Metern)

Häufige Netzwerkprobleme, die die KI-Trainingseffizienz beeinträchtigen

80% der KI-Trainingsunterbrechungen stammen von Netzwerkseitenproblemen

95% der Netzwerkprobleme sind oft mit fehlerhaften optischen Verbindungen verbunden

Common Network Issues Affecting AI Training Efficency

NADDOD - Schutz von KI-Clustern vor Trainingsunterbrechungen

Broadcom DSP und VCSEL liefern ultra-niedrige BER und Stabilität

Rigorose Kompatibilität über NVIDIA-Ökosysteme hinweg

Branchenführende Fertigung gewährleistet konsistente Qualität und schnelle Lieferung

Umfassendes Produktportfolio mit anpassbaren Lösungen

Umfangreiche Expertise und engagierter Support für InfiniBand-Cluster-Bereitstellungen

NADDOD InfiniBand-Produktportfolio für KI-Workloads

InfiniBand-Transceiver und -Kabel

NVIDIA Quantum-X800- und Quantum-2-Konnektivitätsoptionen ermöglichen flexible Topologien mit einer Vielzahl von Transceivern, MPO-Steckverbindern, ACC und DACs. Rückwärtskompatibilität verbindet 800b/s- und 400Gb/s-Cluster mit bestehenden 200Gb/s- oder 100Gb/s-Infrastrukturen und gewährleistet nahtlose Skalierbarkeit und Integration.

InfiniBand XDR Optics and Cables InfiniBand NDR Optics and Cables

InfiniBand-Switches

Die NVIDIA Quantum-X800 und Quantum-2 sind darauf ausgelegt, die Anforderungen von Hochleistungs-KI- und HPC-Netzwerken zu erfüllen und bieten 800 Gb/s bzw. 400 Gb/s pro Port und sind in luftgekühlten oder flüssigkeitsgekühlten Konfigurationen verfügbar, um verschiedenen Rechenzentrumsanforderungen gerecht zu werden.

Quantum-X800-Switches Quantum-2 Switches

InfiniBand-Adapter/NICs

Der NVIDIA ConnectX-8- und ConnectX-7-InfiniBand-Adapter bietet unvergleichliche Leistung für KI- und HPC-Workloads mit einzelnen oder doppelten Netzwerkports mit Geschwindigkeiten von bis zu 800Gb/s, verfügbar in mehreren Formfaktoren, um verschiedene Bereitstellungsanforderungen zu erfüllen.

ConnectX-8-Adapter ConnectX-7-Adapter

Was Kunden sagen

Unsere InfiniBand-Konfiguration verwendet NADDODs Transceiver und Kabel - solide Leistung!
Wir verwenden NADDOD-Optik für unsere InfiniBand-Konfiguration. Große Qualität und Leistung.
Perfekt!👍 Kann mir keine einfachere Lösung für unsere Infrastruktur vorstellen.
Zuverlässige Produkte und großartiger Support
NADDOD versteht wirklich unsere Bedürfnisse! Beste Wahl für KI-Netzwerke!
naddod infiniband ndr transceiver
infiniband cluster
naddod infiniband ndr transceiver
infiniband clusterinfiniband cluster

Kontaktieren Sie uns

Partner mit NADDOD, um Ihr InfiniBand-Netzwerk für die nächste Generation von KI-Innovationen zu beschleunigen

+1
Ich stimme den Datenschutzbestimmungen und Nutzungsbedingungen von NADDOD zu.
Einreichen