Progettato Specificamente per Carichi di Lavoro AI ad Alte Prestazioni

Il routing adattivo, il computing in rete e l'architettura di controllo della congestione permettono a InfiniBand di soddisfare le esigenze rigorose dei cluster HPC e AI. Queste ottimizzazioni garantiscono un flusso dati senza interruzioni, eliminano i colli di bottiglia e consentono un utilizzo efficiente delle risorse, offrendo prestazioni superiori ed efficienza operativa per infrastrutture complesse.

Alta prestazione, bassa latenza

Trasmissione senza perdita con controllo del flusso basato su crediti

Instradamento adattivo per una distribuzione ottimale del carico

Calcolo in Rete con Protocollo SHARP

Scalabilità con Topologie Flessibili

Stabilità e Resilienza con Tecnologia Self-Healing

Architettura Scalabile per Prestazioni AI Massime con InfiniBand

Per distribuzioni su larga scala di cluster AI InfiniBand, con GPU NVIDIA H100 e H200, le soluzioni DGX (GB200, GB300) e la topologia di rete fat-tree sono abbinate a queste soluzioni, ideali per gestire carichi di lavoro AI intensivi.

Immersion Cooling Solution

NADDOD Soluzioni di Rete InfiniBand per Cluster AI da Piccoli a Grandi

Soluzioni flessibili adattate a diverse dimensioni di cluster AI, configurazioni di data center e distanze di connessione.

Soluzioni per Data Center AI InfiniBand su Piccola Scala

Soluzione ad alte prestazioni e conveniente per aggiornare o costruire cluster AI più scalabili.

Distribuzione di Transceiver Multimodali NDR

InfiniBand NDR multimode transceiver offrono prestazioni economiche e affidabili per brevi distanze.

Caso d'uso tipico
Connessioni Spine-to-Leaf e Leaf-to-Server sotto i 50 metri.
Raccomandazioni
Foglia a server: 400G OSFP SR4 Transceiver

Soluzioni per Data Center AI con InfiniBand di Media e Grande Capacità

Soluzione ad alte prestazioni e conveniente per aggiornare o costruire cluster AI più scalabili.

NDR Transceiver Monomodale e Cavi DAC/ACC

I transceiver InfiniBand NDR Single-mode consentono connessioni stabili e a lunga distanza, mentre i cavi DAC riducono costi e consumo energetico. Insieme, offrono una soluzione efficiente per cluster di medie e grandi dimensioni.

Transceiver Monomodali + Cavi DAC/ACC 800G
Caso d'uso tipico
Switch Spine e Leaf collocati o in rack adiacenti per connessioni DAC a breve distanza. I transceiver single-mode gestiscono le distanze più lunghe da Server a Leaf con prestazioni ad alta velocità e bassa latenza.
Raccomandazioni
Spine-to-Leaf: Cavi DAC/ACC OSFP 800G (supporto fino a 5 metri)
Foglia a server: 800G OSFP 2xDR4 e 400G OSFP DR4 (entrambi supportano fino a 100 metri)
Transceiver Monomodali + Cavi DAC/ACC Breakout 800G
Caso d'uso tipico
I cavalli DAC Breakout collegano i server agli switch leaf nei rack adiacenti. Per distanze Leaf-to-Spine superiori a 50 metri e fino a 2 chilometri, i transceiver single-mode garantiscono una connettività affidabile e ad alte prestazioni.
Raccomandazioni
Spine-to-Leaf: 800G OSFP 2xFR4 - 800G OSFP 2xFR4 (supporta fino a 2 chilometri; adatto per connessioni tra edifici) o 800G OSFP 2xDR4 - 800G OSFP 2xDR4 (ottimizzati per distanze inferiori a 500 metri con elevata densità di porte) transceiver.
Foglia a server: Cavi DAC/ACC Breakout OSFP 800G (supporto fino a 5 metri)

Soluzioni per Data Center AI su larga scala con InfiniBand

Soddisfare le esigenze estreme di larghezza di banda e latenza dei modelli ultra-grandi con trilioni di parametri.

XDR/NDR Transceiver e cavi DAC/ACC

Per i grandi cluster AI, viene comunemente adottato un approccio ibrido che combina cavi DAC con transceiver XDR o NDR. Questo unisce velocità ultra elevate per i carichi di lavoro AI più impegnativi a un'infrastruttura economicamente vantaggiosa.

XDR Transceiver + Cavi DAC/ACC XDR Breakout
Caso d'uso tipico
Quando la connettività dei nodi di calcolo è a una velocità di 800Gp/s, le connessioni a breve distanza all'interno del rack e tra rack utilizzano cavi in rame da 1,6T, mentre i collegamenti a lunga distanza adottano moduli XDR single-mode da 1,6T, riducendo i costi rispetto all'utilizzo di moduli single-mode per tutte le connessioni.
Raccomandazioni
Spine-to-Leaf:1.6T OSFP224 2xDR4 (supporto fino a 500 metri)

XDR e NDR Transceiver + Cavi DAC/ACC NDR Breakout

Caso d'uso tipico
Durante la transizione dalle reti NDR a quelle XDR, le configurazioni ibride bilanciano gli aggiornamenti delle prestazioni con l'efficienza. Per i nodi di calcolo che operano con schede di rete da 400 Gb/s, il lato server continua a funzionare con moduli ottici e cavi NDR, mentre le connessioni Spine-to-Leaf adottano transceiver XDR per la massima velocità di trasferimento.
Raccomandazioni
Spine-to-Leaf: 1.6T OSFP224 2xDR4 (supporto fino a 500 metri)

Problemi Comuni di Rete che Influiscono sull'Efficienza dell'Addestramento AI

L'80% delle interruzioni nell'addestramento AI deriva da problemi lato reteIl 95% dei problemi di rete è spesso collegato a interconnessioni ottiche difettose

NADDOD - Protezione dei cluster AI dalle interruzioni durante l'addestramento

Broadcom DSP e VCSEL garantiscono BER ultra-basso e stabilità

Compatibilità Rigorosa tra gli Ecosistemi NVIDIA

Produzione Leader del Settore Garantisce Qualità Costante e Consegna Rapida

Portafoglio Prodotti Completo con Soluzioni Personalizzabili

Esperienza Estesa e Supporto Dedicato per Implementazioni di Cluster InfiniBand

NADDOD Portafoglio Prodotti InfiniBand per Carichi di Lavoro AI

Transceiver e cavi InfiniBand

Le opzioni di connettività NVIDIA Quantum-X800 e Quantum-2 consentono topologie flessibili con una varietà di transceiver, connettori MPO, ACC e DAC. La compatibilità all'indietro collega cluster da 800Gb/s e 400Gb/s alle infrastrutture esistenti da 200Gb/s o 100Gb/s, garantendo scalabilità e integrazione senza interruzioni.

InfiniBand XDR Optics and Cables InfiniBand NDR Optics and Cables

Switch InfiniBand

Gli NVIDIA Quantum‑X800 e Quantum‑2 sono progettati per soddisfare le esigenze delle reti AI e HPC ad alte prestazioni, offrendo rispettivamente 800 Gb/s e 400 Gb/s per porta, e sono disponibili in configurazioni raffreddate ad aria o a liquido per adattarsi alle diverse esigenze dei data center.

Switch Quantum-X800 Quantum-2 Switches

Adattatori/NIC InfiniBand

L'adattatore InfiniBand NVIDIA ConnectX-8 e ConnectX-7 offre prestazioni senza pari per carichi di lavoro AI e HPC, fornendo porte di rete singole o doppie con velocità fino a 800Gb/s, disponibile in più fattori di forma per soddisfare diverse esigenze di distribuzione.

ConnectX-8 Adapters ConnectX-7 Adapters

Cosa Dicono i Clienti

La nostra configurazione InfiniBand utilizza i transceiver e i cavi NADDOD—prestazioni affidabilissime!
Utilizziamo ottiche NADDOD per la nostra configurazione InfiniBand. Ottima qualità e prestazioni.
Perfetto!👍Non riesco a immaginare una soluzione più semplice per la nostra infrastruttura.
Prodotti affidabili e un ottimo supporto
NADDOD comprende davvero le nostre esigenze! La scelta migliore per le reti AI!
naddod infiniband ndr transceiver
infiniband cluster
naddod infiniband ndr transceiver
infiniband clusterinfiniband cluster

Contattaci

Collabora con NADDOD per Accelerare la tua Rete InfiniBand verso l'Innovazione AI di Nuova Generazione

+1
Invia