Conçue Spécialement pour les Charges de Travail d'IA Hautes Performances

Le routage adaptatif, le calcul en réseau et l'architecture de contrôle de congestion permettent à InfiniBand de répondre aux exigences rigoureuses des clusters HPC et IA. Ces optimisations garantissent un flux de données transparent, éliminent les goulots d'étranglement et permettent une utilisation efficace des ressources, ce qui se traduit par des performances supérieures et une efficacité opérationnelle accrue pour les infrastructures complexes.

Haute Performance, Faible Latence

InfiniBand atteint une latence de bout en bout aussi faible que 2 µs et une latence de commutation jusqu'à 230 nanosecondes (NDR), idéale pour les charges de travail d'IA/ML qui reposent sur un traitement rapide des données. Cela réduit les délais de communication, accélérant ainsi les cycles de formation and d'inférence des modèles.

Transmission sans Perte avec Contrôle de Flux Basé sur le Crédit

Avec un contrôle de flux basé sur le crédit, InfiniBand fournit un réseau véritablement sans perte, atténuant la perte de paquets et garantissant qu'aucune donnée n'est perdue pendant le transfert, ce qui est essentiel pour une gestion fiable des données à grande échelle.

Routage Adaptatif pour une Répartition Optimale de la Charge

Le routage multipath adaptatif équilibre dynamiquement le trafic en sélectionnant les chemins optimaux en fonction de la congestion en temps réel. Il réduit les goulots d'étranglement, augmente le débit et améliore l'efficacité globale du réseau, ce qui fait d'InfiniBand idéale pour les environnements où la charges de données est fluctuante.

Calcul en Réseau avec le Protocole SHARP

Le protocole SHARP (Scalable Hierarchical Aggregation and Reduction Protocol) permet l'agrégation de données au sein du réseau, réduisant ainsi la latence et le mouvement des données. En déchargeant les opérations collectives de l'unité centrale vers le réseau, SHARP améliore le débit des données et maximise l'utilisation de la bande passante, accélérant ainsi les tâches à forte intensité de calcul.

Évolutivité avec des Topologies Flexibles

Prenant en charge jusqu'à 48 000 nœuds dans un seul sous-réseau, il élimine les surcharges ARP et de diffusion. Les topologies avancées, notamment Fat-Tree, Dragonfly+ et Torus multidimensionnel, offrent des configurations flexibles et performantes adaptées aux besoins spécifiques des applications.

Stabilité et Résilience Grâce à la Technologie d'Auto-Guérison

La technologie de réseau d'auto-guérison réduit les temps de récupération du réseau à une milliseconde, garantissant une haute disponibilité et une résilience élevée pour des opérations d'IA et de traitement de données ininterrompues.

Architecture évolutive pour des performances d'IA optimales avec InfiniBand

Pour le déploiement de clusters IA InfiniBand à grande échelle, avec les GPU NVIDIA H100, H200, les solutions DGX (GB200, GB300), les topologies réseau en arbre gras sont associées à ceux-ci, ce qui convient au traitement des charges de travail IA intensives.

  • Topologie Quantum-X800 XDR(800G par nœud)
  • Topologie Quantum-X800 XDR + NDR(400G par nœud)
  • Topologie Quantum-2 NDR
  • Spine
    Commutateurs Quantum-X800
  • Leaf
    Commutateurs Quantum-X800
  • Server
    Système DGX
    Adaptateurs ConnectX-8 C8180
  • Spine-Leaf
    Optiques XDR
  • Leaf-Serveur
    Optiques XDR et
    Câbles Splitter DAC XDR

Solutions réseau InfiniBand NADDOD pour les clusters IA de petite à grande taille

Solutions flexibles adaptées aux différentes tailles de clusters d'IA, aux agencements des centres de données et aux distances de connexion.

Solutions pour Datacenters IA InfiniBand à Petite Échelle

Déploiement de réseau InfiniBand hautes performances conçu pour les centres de données IA compacts

Déploiement des Modules Multimodes NDR

Les émetteurs-récepteurs multimodes InfiniBand NDR offrent des performances économiques et fiables sur de courtes distances.

Cas d'utilisation typique
Connexions Spine-Leaf et Leaf-to-Server de moins de 50 mètres.
Recommandations
Feuille au serveur:Modules OSFP SR4 400G

Solutions de Datacenter IA InfiniBand de moyenne à grande envergure

Une solution haute performance et économique pour mettre à niveau ou construire des clusters d'IA plus évolutifs.

Modules Monomodes et Câbles DAC/ACC NDR

Les émetteurs-récepteurs InfiniBand NDR monomodes permettent des connexions stables sur de longues distances, tandis que les câbles DAC réduisent les coûts et la consommation d'énergie. Ensemble, ils offrent une solution efficace pour les clusters de taille moyenne à grande.

Modules monomodes + Câbles DAC/ACC 800G
Cas d'utilisation typique
Les commutateurs Spine et Leaf sont colocalisés ou dans des racks adjacents pour les connexions DAC à courte distance. Les émetteurs-récepteurs monomodes gèrent les distances Serveur-Leaf plus longues avec des performances à haut débit et à faible latence.
Recommandations
Spine-Leaf: Câbles DAC/ACC OSFP 800G (prise en charge jusqu'à 5 mètres)
Feuille au serveur: 800G OSFP 2xDR4 et 400G OSFP DR4 (les deux prennent en charge jusqu'à 100 mètres)
800G FR8 InfiniBand solution for AI data center
Modules Monomodes + Câble Breakout DAC 800G/Câbles ACC
Cas d'utilisation typique
Les câbles DAC Breakout connectent les serveurs aux commutateurs leaf dans des racks adjacents. Pour les distances Leaf-Spine supérieures à 50 mètres et jusqu'à 2 kilomètres, les émetteurs-récepteurs monomodes offrent une connectivité fiable et haute performance.
Recommandations
Spine-Leaf: 800G OSFP 2xFR4 - 800G OSFP 2xFR4 (prend en charge jusqu'à 2 kilomètres ; convient aux connexions inter-bâtiments) ou 800G OSFP 2xDR4 - 800G OSFP 2xDR4 (optimisés pour les distances inférieures à 500 mètres avec une haute densité de ports) émetteurs-récepteurs.
Feuille au serveur: Câbles Breakout DAC/ACC OSFP 800G (prise en charge jusqu'à 5 mètres)

Solutions de Datacenter IA InfiniBand à grande échelle

Répondre aux exigences extrêmes en matière de bande passante et de latence des modèles ultra-larges de plusieurs billions de paramètres.

Modules XDR/NDR et câbles DAC/ACC

Pour les grands clusters d'IA, une approche hybride combinant des câbles DAC avec des émetteurs-récepteurs XDR ou NDR est couramment adoptée. Elle combine des vitesses ultra-élevées pour les charges de travail d'IA exigeantes avec une infrastructure rentable.

Modules XDR + Câbles Breakout DAC/ACC XDR
Cas d'utilisation typique
Lorsque la connectivité des nœuds de calcul est à une vitesse de 800 Gbit/s, les connexions courtes en rack et inter-rack utilisent des câbles en cuivre de 1,6 T, tandis que les liaisons longue distance adoptent des modules monomodes XDR de 1,6 T, ce qui réduit les coûts par rapport à l'utilisation de modules monomodes pour toutes les connexions.
Recommandations
Spine-Leaf:1,6T OSFP224 2xDR4 (prise en charge jusqu'à 500 mètres)
800G FR8 InfiniBand solution for AI data center

Modules XDR et NDR + Câbles Breakout DAC/ACC NDR

Cas d'utilisation typique
Lors du passage des réseaux NDR aux réseaux XDR, les configurations hybrides équilibrent les améliorations de performances et l'efficacité. Pour les nœuds de calcul fonctionnant avec des NIC de 400 Gbit/s, le côté serveur continue de fonctionner avec des modules et des câbles optiques NDR, tandis que les connexions Spine-Leaf adoptent des émetteurs-récepteurs XDR pour un débit maximal.
Recommandations
Spine-Leaf: 1,6T OSFP224 2xDR4 (prise en charge jusqu'à 500 mètres)

Problèmes de Réseau Courants Affectant l'Efficacité de la Formation à l'IA

80 % des Interruptions de Formation à l'IA proviennent de Problèmes de Réseau.

95 % des problèmes réseau sont souvent liés à des interconnexions optiques défectueuses.

Common Network Issues Affecting AI Training Efficency

NADDOD - Protection des Clusters d'IA Contre les Interruptions d'Apprentissage

Les Puces DSP et VCSEL de Broadcom, Offrent un BER Ultra-faible et une Grande Stabilité

Compatibilité Rigoureuse avec les Écosystèmes NVIDIA

Une Fabrication de Pointe Garantit une Qualité Constante et une Livraison Rapide

Portefeuille de Produits Complet avec des Solutions Personnalisables

Expertise Approfondie et Assistance Dédiée pour les Déploiements de Clusters InfiniBand

Gamme de Produits InfiniBand NADDOD pour les Charges de Travail d'IA

Émetteurs-récepteurs et câbles InfiniBand

NVIDIA Quantum-X800 and Quantum-2 connectivity options enable flexible topologies with a variety of transceivers, MPO connectors, ACC, and DACs. Backward compatibility connects 800b/s, 400Gb/s clusters to existing 200Gb/s or 100Gb/s infrastructures, ensuring seamless scalability and integration.

InfiniBand XDR Optics and Cables InfiniBand NDR Optics and Cables

InfiniBand Adapters/NICs

The NVIDIA ConnectX-8 and ConnectX-7 InfiniBand adapter delivers unmatched performance for AI and HPC workloads, offeringsingle or dual network ports with speeds of up to 800Gb/s, available in multiple form factors to meet diverse deployment needs.

ConnectX-8 Adapters ConnectX-7 Adapters

InfiniBand Switches

The NVIDIA Quantum‑X800 and Quantum‑2 are designed to meet the demands of high-performance AI and HPC networks, delivering 800 Gb/s and 400 Gb/s per port, respectively, and are available in air-cooled or liquid-cooled configurations to suit diverse data center needs.

Commutateurs Quantum-X800 Quantum-2 Switches

Ce que disent les clients

Our InfiniBand setup is using NADDOD's transceivers and cables—rock-solid performance!
We use NADDOD optics for our InfiniBand setup. Great quality and performance.
Perfect!👍Can’t imagine an easier solution for our infrastructure.
Reliable products and great support
NADDOD truly understands our needs! Best choice for AI network!
naddod infiniband ndr transceiver
infiniband cluster
naddod infiniband ndr transceiver
infiniband clusterinfiniband cluster

Contactez-nous

Associez-vous à NADDOD pour Accélérer Votre Réseau InfiniBand et Propulser l'Innovation en IA de Nouvelle Génération

+1
Soumettre