InfiniBand

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 10 de julio de 2019; las comprobaciones requieren 13 ediciones .

Infiniband (a veces abreviado IB ) es una red informática conmutada de alta velocidad utilizada en la informática de alto rendimiento, que tiene un ancho de banda muy alto y una latencia baja. También se utiliza para conexiones internas en algunos sistemas informáticos. A partir de 2014, Infiniband era la red más popular para supercomputadoras . Los controladores Infiniband ( adaptador de bus de host ) y los conmutadores de red son fabricados por Mellanox e Intel . Al crear Infiniband, se incorporó la escalabilidad, la red utiliza una topología de red basada en conmutadores ( Switched fabric ).

Como red de comunicaciones para clústeres , Infiniband compite con el grupo de estándares Ethernet y tecnologías propietarias [1] como Cray e IBM. Al construir redes informáticas, IB compite con Gigabit Ethernet , 10 Gigabit Ethernet y 40/100 Gigabit Ethernet . IB también se utiliza para conectar dispositivos de almacenamiento de información DAS . [2] El desarrollo y la estandarización de las tecnologías Infiniband está a cargo de la Asociación Comercial InfiniBand[3] .

Breve descripción

Al igual que muchos buses modernos , como PCI Express , SATA , USB 3.0 , Infiniband utiliza pares diferenciales para transportar señales en serie. Los dos pares juntos forman un bus serie bidireccional básico ( eng.  lane ), denominado 1x. La velocidad base es de 2,5 Gbps en cada dirección. Los puertos Infiniband consisten en un solo bus o grupos agregados de buses bidireccionales básicos 4x o 12x. Los puertos más utilizados son 4x [4] .

Para los puertos, existen varios modos de transferencia de datos en los autobuses. Los modos anteriores usaban codificación 8B/10B [5] para equilibrar la señal (cada 8 bits de datos se transfieren a través del bus como 10 bits) con una sobrecarga del 20 %:

A partir del modo FDR-10, se utiliza una codificación 64B/66B mucho más económica :

El objetivo principal de Infiniband son las conexiones entre servidores, incluida la organización de RDMA ( Acceso directo remoto a memoria ).

Actuación
Generación: DEG RDA QDR FDR-10 FDR EDR HDR NDR
Rendimiento efectivo, Gbps, por bus 1x [7] 2 cuatro ocho diez catorce 25 cincuenta 100
Velocidades efectivas para buses 4x y 12x, Gbps 8, 24 16, 48 32, 96 41,25, 123,75 54,54, 163,64 100, 300 200, 600 400,

1200

Codificación (bit) 8/10 8/10 8/10 64/66 64/66 64/66 64/66 64/66
Retrasos típicos, µs [8] [9] 5 2.5 1.3 0.7 0.7 0.5
Año de aparición [10] 2001,
2003
2005 2007 2011 2014 [7] ~2017 [7] más tarde 2020

Topología y conexiones

InfiniBand usa un medio conmutado con conexiones punto a punto, a diferencia de las primeras redes Ethernet que usaban un medio compartido e, inicialmente, una conexión de bus. Todas las transmisiones comienzan y terminan en el adaptador de canal. Cada nodo informático contiene un adaptador HCA (adaptador de canal host) conectado al procesador a través de la interfaz PCI Express (anteriormente a través de PCI-X ). Los datos y la información de control se envían entre adaptadores, incluidos los necesarios para implementar QoS .

Para los dispositivos periféricos, se suponía el uso de adaptadores TCA (adaptador de canal de destino), pero no han ganado distribución, y dichos dispositivos periféricos se crean sobre la base de placas base estándar [11] .

Los adaptadores HCA suelen tener uno o dos puertos 4x, que se pueden conectar a los mismos puertos HCA y TCA, o a conmutadores (switches). Los conmutadores se pueden organizar en redes con topologías de árbol gordo ( Fat Tree ), Red cerrada , con menos frecuencia: toroide multidimensional, estrella doble y en varias combinaciones híbridas [5] [12] .

Los puertos y cables Infiniband 4x vienen en los siguientes factores de forma:

Los puertos 12x más raros vienen en factores de forma:

Para garantizar el máximo rendimiento, se tomó la decisión de limitar la longitud permitida del cable InfiniBand a 10 metros (solo cable activo).

Los cables Infiniband están disponibles en varios diseños:

Además, cuando se utilizan adaptadores universales Infiniband/Ethernet en una infraestructura Ethernet, se pueden utilizar adaptadores para puertos SFP+.

Las señales de Infiniband pueden viajar varias pulgadas a través de placas de circuito impreso, incluso a través de conectores internos con una respuesta de frecuencia adecuada, siempre que todos los pares en un puerto tengan casi la misma longitud.

Protocolos y APIs

A nivel de enlace de datos, InfiniBand transmite datos en forma de paquetes de hasta 4 KB (kilobytes) de longitud, que luego de combinarse forman un mensaje. Algunos dispositivos admiten un tamaño de paquete máximo más pequeño, como 2 KB. Tipos de mensajes:

Los mensajes de Infiniband se dividen en servicios según las garantías de entrega y la necesidad de inicializar la conexión antes del intercambio:

Infiniband le permite utilizar el principio de RDMA ( acceso directo a memoria remoto en inglés -  acceso  directo a memoria remota), en el que la transferencia de datos desde la memoria de una computadora remota a la memoria local del solicitante se realiza directamente por el controlador de red, mientras que el se excluye la participación de la CPU del nodo remoto. RDMA permite que los datos se transfieran sin almacenamiento en búfer adicional y no requiere una operación activa del sistema operativo, las bibliotecas o la aplicación en el nodo a cuya memoria se accede.

Infiniband se puede utilizar con dos API genéricas de bajo nivel que se desarrollaron a partir de U-Net (Cornell, mediados de la década de 1990) y VIA ( arquitectura de interfaz virtual , finales de la década de 1990) [15] :

Usando verbos o uDAPL, se pueden implementar interfaces y protocolos de programación de alto nivel, en particular:

Historia

InfiniBand nació en 1999 de la fusión de dos proyectos en competencia: Future I/O y Next Generation I/O. Al mismo tiempo, se formó la Asociación Comercial InfiniBand , que incluía a Compaq , Dell , Hewlett-Packard , IBM , Intel , Microsoft y Sun. [17]

La versión 1.0 de la especificación InfiniBand, la especificación de arquitectura InfiniBand, se lanzó en 2000. Inicialmente, se suponía que IB podría convertirse simultáneamente en un reemplazo del lento bus PCI para E/S, redes Ethernet, redes de clúster especializadas y Fibre Channel . [18] [19]

El equipo Infiniband fue fabricado por: Qlogic , Mellanox , Voltaire , Topspin .

Fechas principales:

Véase también

Notas

  1. Vance, Ashlee China arrebata el título de supercomputadora de EE. UU . New York Times (28 de octubre de 2010). Consultado el 28 de septiembre de 2017. Archivado desde el original el 27 de septiembre de 2017.
  2. Dispositivo de almacenamiento | SFA12KX | DDN (Enlace no disponible) . Fecha de acceso: 17 de enero de 2015. Archivado desde el original el 7 de julio de 2017. 
  3. Asociación Comercial InfiniBand . Consultado el 28 de noviembre de 2006. Archivado desde el original el 7 de febrero de 2006.
  4. Consejo asesor de HPC-AI: un centro de apoyo al esfuerzo comunitario para usuarios finales de HPC . Fecha de acceso: 17 de enero de 2015. Archivado desde el original el 24 de septiembre de 2015.
  5. 1 2 3 4 http://www.snia.org/sites/default/education/tutorials/2008/spring/networking/Goldenberg-D_InfiniBand_Technology_Overview.pdf Archivado el 24 de septiembre de 2015 en Wayback Machine 2008
  6. Hoja de datos de FDR InfiniBand . Consultado el 17 de enero de 2015. Archivado desde el original el 26 de agosto de 2016.
  7. 1 2 3 InfiniBand Roadmap: IBTA - InfiniBand Trade Association (enlace no disponible) . Fecha de acceso: 17 de enero de 2015. Archivado desde el original el 29 de septiembre de 2011. 
  8. http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf Archivado el 19 de agosto de 2019 en Wayback Machine // Mellanox, 2014
  9. InfiniBand Too Quick For Ethernet To Kill Archivado el 8 de diciembre de 2015 en Wayback Machine /The Next Platform, Timothy Prickett Morgan, 2015-04
  10. Panda, Dhabaleswar K. Aceleración de la velocidad de la red con IB y HSE . Designing Cloud and Grid Computing Systems with InfiniBand and High-Speed ​​​​Ethernet 23. Newport Beach, CA, EE. UU.: CCGrid 2011 (2011). Consultado el 13 de septiembre de 2014. Archivado desde el original el 13 de junio de 2020.
  11. Introducción a InfiniBand para usuarios finales Archivado el 26 de septiembre de 2014 en Wayback Machine . "El concepto de TCA no se implementa ampliamente en la actualidad; en cambio, la mayoría de los dispositivos de E/S se implementan utilizando placas base de servidor estándar"
  12. Consejo asesor de HPC-AI: un centro de apoyo al esfuerzo comunitario para usuarios finales de HPC . Fecha de acceso: 17 de enero de 2015. Archivado desde el original el 24 de septiembre de 2015.
  13. Anexo A6: 120 Gb/s 12x Factor de forma pequeño conectable (CXP) Archivado el 9 de enero de 2014 en Wayback Machine // Suplemento a la especificación de arquitectura InfiniBand Volumen 2 Versión 1.2.1, 2009
  14. Consejo asesor de HPC-AI: un centro de apoyo al esfuerzo comunitario para usuarios finales de HPC . Fecha de acceso: 17 de enero de 2015. Archivado desde el original el 24 de septiembre de 2015.
  15. Ron Brightwell, Keith Underwood. Capítulo 6 Interfaces de programación de red para computación de alto rendimiento; 6.3 Interfaces de programación de red de bajo nivel // Lograr comunicaciones de alto rendimiento: un enfoque vertical / Ada Gavrilovska. - Boca Raton (Florida) : CRC Press, 2009. - S. 152. - 416 p. — ISBN 9781420093131 . Archivado el 27 de diciembre de 2014 en Wayback Machine .
  16. 1 2 3 Apéndice A Conceptos de InfiniBand Archivado el 1 de agosto de 2014 en Wayback Machine // Guía del usuario del Administrador de elementos de la familia de productos Cisco SFS.
  17. Pentakalos, Odysseas Introducción a la arquitectura InfiniBand . O´Reilly . Consultado el 28 de julio de 2014. Archivado desde el original el 9 de agosto de 2014.
  18. 1 2 Kim, Ted Breve historia de InfiniBand: bombo al pragmatismo (enlace no disponible) . Oráculo. Consultado el 28 de julio de 2014. Archivado desde el original el 8 de agosto de 2014. 
  19. Comprensión de la arquitectura PCI Bus, PCI-Express e InfiniBand Archivado el 24 de julio de 2015 en Wayback Machine // Informe técnico de Mellanox, 2006: "Muchos miembros de la IBTA y la propia IBTA promovieron InfiniBand como reemplazo de PCI".
  20. Cronología . Tecnologías Mellanox. Consultado el 28 de julio de 2014. Archivado desde el original el 29 de noviembre de 2019.
  21. Sun confirma su compromiso con InfiniBand . el registro Fecha de acceso: 28 de julio de 2014. Archivado desde el original el 4 de marzo de 2016.
  22. Linux Kernel 2.6.11 es compatible con InfiniBand . Consultado el 29 de julio de 2014. Archivado desde el original el 21 de octubre de 2020.
  23. ¿InfiniBand está lista para regresar? , Infostor Vol . 10(2) , < http://www.infostor.com/index/articles/display/248655/articles/infostor/volume-10/issue-2/news-analysis-trends/news-analysis- tendencias/is-infiniband-poised-for-a-comeback.html > Archivado el 25 de noviembre de 2020 en Wayback Machine . 
  24. Lawson, Stephen Dos superordenadores rivales se disputan el primer puesto (enlace no disponible) . MUNDO DE LA INFORMÁTICA. Consultado el 29 de julio de 2014. Archivado desde el original el 10 de enero de 2017. 
  25. Mellanox Technologies Archivado el 3 de diciembre de 2010 en Wayback Machine .
  26. Raffo, Dave Los proveedores más grandes de InfiniBand se fusionan; ojo redes convergentes (enlace no disponible) . Consultado el 29 de julio de 2014. Archivado desde el original el 1 de julio de 2017. 
  27. Mellanox demuestra una versión mejorada de Infiniband , CIO (20 de junio de 2011). Archivado desde el original el 7 de enero de 2014. Consultado el 1 de agosto de 2011.
  28. Intel compra los activos InfiniBand de QLogic por 125 millones de dólares. Archivado el 25 de agosto de 2012 en Wayback Machine . // ZDN.
  29. Intel adquiere la tecnología InfiniBand, línea de productos de QLogic , HPCwire  (23 de enero de 2012). Archivado desde el original el 27 de enero de 2012. Consultado el 27 de enero de 2012.
  30. Mellanox se encoge de hombros ante la compra de InfiniBand de Intel Archivado el 27 de abril de 2018 en Wayback Machine // The Reg 26 de enero de 2012
  31. Nvidia, desafiando a Intel, absorbió al único fabricante mundial de soluciones InfiniBand - CNews . Consultado el 12 de marzo de 2019. Archivado desde el original el 15 de marzo de 2019.
  32. NVIDIA adquirirá Mellanox por 6900 millones de dólares | Sala de prensa de NVIDIA . Consultado el 12 de marzo de 2019. Archivado desde el original el 11 de marzo de 2019.

Literatura

Enlaces