Diseñado específicamente para cargas de trabajo de IA de alto rendimiento

El enrutamiento adaptativo, la computación en red y la arquitectura de control de congestión potencian a InfiniBand para satisfacer las demandas rigurosas de los clústeres de HPC e IA. Estas optimizaciones garantizan un flujo de datos continuo, eliminan cuellos de botella y permiten un uso eficiente de los recursos, impulsando un rendimiento superior y una eficiencia operativa para infraestructuras complejas.

Alto rendimiento, baja latencia

Transmisión sin pérdidas con control de flujo basado en créditos

Enrutamiento Adaptativo para una Distribución Óptima de la Carga

Computación en Red con Protocolo SHARP

Escalabilidad con Topologías Flexibles

Estabilidad y resistencia con tecnología de autoreparación

Arquitectura Escalable para Máximo Rendimiento de IA con InfiniBand

Para implementaciones a gran escala de clústeres de IA con InfiniBand, con GPUs NVIDIA H100 y H200, las soluciones DGX (GB200, GB300) y la topología de red fat-tree están diseñadas para manejar cargas de trabajo intensivas de IA.

Immersion Cooling Solution

NADDOD Soluciones de Red InfiniBand para Clústeres de IA Pequeños a Grandes

Soluciones flexibles adaptadas a diferentes tamaños de clústeres de IA, diseños de centros de datos y distancias de conexión.

Soluciones para Centros de Datos AI con InfiniBand a Pequeña Escala

Alto rendimiento y forma rentable de actualizar o construir clústeres de IA más escalables.

Despliegue de Transceptores Multimodo NDR

Los transceptores InfiniBand NDR multimodo ofrecen un rendimiento rentable y confiable para distancias cortas.

Caso de Uso Típico
Conexiones Spine-to-Leaf y Leaf-to-Server de menos de 50 metros.
Recomendaciones

Soluciones para centros de datos de IA con InfiniBand de mediana a gran escala

Alto rendimiento y forma rentable de actualizar o construir clústeres de IA más escalables.

Transceptores NDR Monomodo y Cables DAC/ACC

Los transceptores InfiniBand NDR monomodo permiten conexiones estables y de larga distancia, mientras que los cables DAC reducen costos y consumo de energía. Juntos, ofrecen una solución eficiente para clusters medianos a grandes.

Transceptores Monomodo + Cables DAC/ACC 800G
Caso de Uso Típico
Conmutadores Spine y Leaf ubicados en el mismo sitio o en racks adyacentes para conexiones DAC de corta distancia. Los transceptores monomodo manejan distancias más largas entre Servidor y Leaf con alto rendimiento, baja latencia y alta velocidad.
Recomendaciones
Espina a Hoja: Cables DAC/ACC OSFP de 800G (soporta hasta 5 metros)
Hoja a Servidor: 800G OSFP 2xDR4 y 400G OSFP DR4 (ambos admiten hasta 100 metros)
Transceptores Monomodo + Cables DAC/ACC de Desagregación 800G
Caso de Uso Típico
Los cables DAC de breakout conectan servidores con switches leaf en racks adyacentes. Para distancias entre Leaf y Spine superiores a 50 metros y hasta 2 kilómetros, los transceptores monomodo ofrecen conectividad confiable y de alto rendimiento.
Recomendaciones
Espina a Hoja: 800G OSFP 2xFR4 - 800G OSFP 2xFR4 (admite hasta 2 kilómetros; adecuado para conexiones entre edificios) o 800G OSFP 2xDR4 - 800G OSFP 2xDR4 (optimizados para distancias menores a 500 metros con alta densidad de puertos) transceptores.
Hoja a Servidor: Cables DAC/ACC de ruptura 800G OSFP (soporta hasta 5 metros)

Soluciones para Centros de Datos AI con InfiniBand a Gran Escala

Cumpliendo con las exigencias extremas de ancho de banda y latencia de modelos ultra grandes con billones de parámetros.

Transceptores XDR/NDR y Cables DAC/ACC

Para grandes clústeres de IA, comúnmente se adopta un enfoque híbrido que combina cables DAC con transceptores XDR o NDR. Combina velocidades ultra altas para cargas de trabajo exigentes de IA con una infraestructura rentable.

Transceptores XDR + Cables DAC/ACC XDR Breakout
Caso de Uso Típico
Cuando la conectividad de los nodos de computación es a una velocidad de 800Gp/s, las conexiones de corta distancia dentro del rack y entre racks utilizan cables de cobre de 1.6T, mientras que los enlaces de larga distancia adoptan módulos XDR de 1.6T monomodo, reduciendo el costo en comparación con el uso de módulos monomodo para todas las conexiones.
Recomendaciones
Espina a Hoja:1.6T OSFP224 2xDR4 (soporta hasta 500 metros)

XDR y NDR Transceivers + NDR Breakout DAC/ACC Cables

Caso de Uso Típico
Durante la transición de redes NDR a XDR, las configuraciones híbridas equilibran las actualizaciones de rendimiento con la eficiencia. Para los nodos de computación que operan con NICs de 400 Gb/s, el lado del servidor sigue funcionando con módulos ópticos y cables NDR, mientras que las conexiones Spine-to-Leaf adoptan transceptores XDR para un rendimiento máximo.
Recomendaciones
Espina a Hoja: 1.6T OSFP224 2xDR4 (soporta hasta 500 metros)

Problemas Comunes de Red que Afectan la Eficiencia del Entrenamiento de IA

El 80% de las interrupciones en el entrenamiento de IA provienen de problemas en el lado de la red.El 95% de los problemas de red suelen estar relacionados con interconexiones ópticas defectuosas.

NADDOD - Protegiendo los Clústeres de IA de Interrupciones en el Entrenamiento

Broadcom DSP y VCSEL ofrecen BER ultra bajo y estabilidad

Compatibilidad Rigurosa en los Ecosistemas de NVIDIA

Fabricación líder en la industria garantiza calidad consistente y entrega rápida

Portafolio Integral de Productos con Soluciones Personalizables

Amplia experiencia y soporte dedicado para implementaciones de clústeres InfiniBand

NADDOD Portafolio de Productos InfiniBand para Cargas de Trabajo de IA

Transceptores y cables InfiniBand

Las opciones de conectividad NVIDIA Quantum-X800 y Quantum-2 permiten topologías flexibles con una variedad de transceptores, conectores MPO, ACC y DAC. La compatibilidad con versiones anteriores conecta clústeres de 800Gb/s y 400Gb/s a infraestructuras existentes de 200Gb/s o 100Gb/s, garantizando una escalabilidad e integración sin problemas.

InfiniBand XDR Optics and Cables InfiniBand NDR Optics and Cables

Conmutadores InfiniBand

Los NVIDIA Quantum‑X800 y Quantum‑2 están diseñados para satisfacer las demandas de redes de IA y HPC de alto rendimiento, ofreciendo 800 Gb/s y 400 Gb/s por puerto, respectivamente, y están disponibles en configuraciones refrigeradas por aire o líquido para adaptarse a diversas necesidades de centros de datos.

Interruptores Quantum-X800 Quantum-2 Switches

Adaptadores/Tarjetas de red InfiniBand

El adaptador InfiniBand NVIDIA ConnectX-8 y ConnectX-7 ofrece un rendimiento inigualable para cargas de trabajo de IA y HPC, con puertos de red simples o duales y velocidades de hasta 800Gb/s, disponible en múltiples factores de forma para satisfacer diversas necesidades de implementación.

Adaptadores ConnectX-8 Adaptadores ConnectX-7

Lo Que Dicen Los Clientes

Nuestra configuración InfiniBand utiliza transceptores y cables de NADDOD: ¡rendimiento inquebrantable!
Utilizamos ópticas NADDOD para nuestra configuración InfiniBand. Gran calidad y rendimiento.
¡Perfecto!👍No puedo imaginar una solución más fácil para nuestra infraestructura.
Productos confiables y gran soporte
¡NADDOD realmente entiende nuestras necesidades! ¡La mejor opción para redes de IA!
naddod infiniband ndr transceiver
infiniband cluster
naddod infiniband ndr transceiver
infiniband clusterinfiniband cluster

Contáctenos

Colabore con NADDOD para acelerar su red InfiniBand hacia la innovación en IA de próxima generación

+1
Acepto la Política de Privacidad y los Términos de Uso de NADDOD.
Entregar