Topología de red de MSP para principiantes

Para los proveedores de servicios gestionados (MSP), crear una red escalable y de alto rendimiento es la piedra angular del éxito. En una entrada anterior del blog, tratamos los tipos de topología de red básicos y, en esta entrada, examinamos tipos de topología de red más complejos para proveedores de servicios, incluidos los preferidos para redes de MSP. Lea esta entrada de blog para saber cuál es la mejor topología de red para un centro de datos de MSP y por qué.

MSP Solution for BaaS and DRaaS

MSP Solution for BaaS and DRaaS

Use NAKIVO’s universal data protection solution to deliver data BaaS and DRaaS. Multiplatform support, anti-ransomware options and built-in disaster recovery.

Redes jerárquicas tradicionales de 3 niveles

Antes de que se generalizaran las redes definidas por software, las redes de los centros de datos se basaban en la topología de red jerárquica en árbol. Esta topología se divide en tres capas principales: la capa central, la capa de agregación o distribución y la capa de acceso. En esta topología, los servidores están conectados a conmutadores en la capa de acceso. Los routers de borde se conectan al núcleo para proporcionar acceso desde/a la WAN (red de área extensa) e Internet. Estos routers están situados entre el núcleo e Internet en el esquema siguiente.

Tipo de topología de la red central de agregación de acceso

Según el modelo OSI (Open Systems Interconnection), que divide la red en una capa de enlace de datos (L2) y una capa de red (L3), entre otras, la topología de red Access-Aggregation-Core está a caballo entre las capas, como se ve en el gráfico.

Veamos estas tres capas una por una.

Capa central

El núcleo de la red (también llamado red central) es el componente central de la red en su conjunto. Los nodos primarios están conectados al núcleo. La red central suele basarse en la topología de red de malla, en la que todos los nodos están conectados a todos los demás nodos dentro del núcleo (para un tipo de topología de red de malla completa). Los conmutadores y enrutadores del núcleo de la red están interconectados con enlaces de alta velocidad (que también se denominan conexiones troncales). Dado que en el núcleo de la red se utilizan routers, la capa central funciona con tráfico L3.

Tipos de topología de red con y sin núcleo de red

Capa de distribución/agregación

Se trata de una capa intermedia utilizada para agregar enlaces ascendentes desde la capa subyacente de la topología de red de tres niveles (la capa de acceso, que funciona en L2) hasta la capa central de la red (que suele funcionar en L3) mediante el uso de enlaces de mayor ancho de banda. La capa de distribución combina un elevado número de puertos de baja velocidad con un pequeño número de puertos troncales de alta velocidad. El enrutamiento comienza en la capa de distribución/agregación de esta topología de red cuando los datos se transfieren desde la capa de acceso. El cortafuegos, el equilibrio de carga y otras configuraciones de seguridad se establecen en la capa de agregación. La capa de agregación/distribución se utiliza para reducir y simplificar el esquema de cableado en el centro de datos para una gestión más cómoda. Los conmutadores instalados en la capa de agregación deben admitir el almacenamiento de más direcciones MAC en la tabla de direcciones MAC de su memoria. Mientras que la capa de acceso opera con tráfico L2, la capa de distribución lo hace con tráfico L2 y L3.

Capa de acceso

Esta capa está formada por conmutadores que funcionan en L2. Los servidores y estaciones de trabajo se conectan a los conmutadores de la capa de acceso. Las VLAN (red de área local virtual) suelen utilizarse para separar dominios de difusión L2 con el fin de reducir el tráfico de difusión y aumentar la seguridad.

Para evitar cuellos de botella, se utilizan enlaces más gruesos cerca del núcleo de la red. Por ejemplo, los servidores se conectan a los conmutadores de acceso mediante interfaces de red de 10 Gbit/s, los conmutadores de acceso se conectan a los conmutadores de agregación mediante interfaces de 10 Gbit/s, y los conmutadores/routers de la capa de agregación se conectan a los conmutadores/routers del núcleo de la red mediante enlaces de 100 Gbit/s. En este caso, la agregación de enlaces puede servir para aumentar el ancho de banda y la redundancia. Todo el tráfico de los servidores se transfiere a los enlaces ascendentes. Hay un conjunto de equipos de red inteligentes, apodados «cajas de dios», situados en la parte superior de la jerarquía de esta topología de red. Las cajas de Dios se encargan del encaminamiento y de todos los demás servicios. La topología de red jerárquica permite crear una red modular.

En la topología de red vista en el diagrama anterior, el fallo de un enlace provoca el fallo de ese segmento de la red. Por este motivo, para este tipo de topología de red se utilizan canales reservados y redundancia (véase el esquema siguiente) en cada capa de red. el fallo de un dispositivo o enlace provoca una degradación del rendimiento, pero la red sigue funcionando. Esta topología de red redundante suele requerir STP (Spanning Tree Protocol).

Acceso Agregación Núcleo Red

Mantenimiento. Si desconecta alguno de los equipos de red situados encima de este tipo de topología de red de 3 niveles para actualizar el software o realizar otras tareas de mantenimiento, el rendimiento de la red se degrada. Algunos servicios pueden no estar disponibles temporalmente.

Escalabilidad. El número de servicios que se ejecutan en los servidores crece cada año y la cantidad de tráfico aumenta en consecuencia. Esta situación exige actualizar y aumentar el ancho de banda de la red MSP. Aumentar el ancho de banda de la red en un centro de datos clásico suele requerir lo siguiente:

  • Aumento de las conexiones de agregación de enlaces (LAG)
  • Comprar tarjetas de red
  • Si no hay ranuras disponibles para instalar tarjetas de red, la compra de nuevos servidores o equipos relacionados

Si necesita añadir un nuevo rack de servidores (cabina de rack) como un nuevo módulo en su centro de datos, puede aumentar el ancho de banda de red a este rack y a los servidores instalados en este rack. Este tipo de topologías de red no pueden garantizar un alto nivel de reserva de enlaces y redundancia como resultado de funciones de protocolo L2 como STP y MSTP (Multiple Spanning Tree Protocol).

La topología de red clásica de tres niveles en un centro de datos puede combinarse con los diseños End of Row y Top of Rack. El esquema de conexión Top of Rack es ahora más popular. Este nombre se utiliza porque los servidores y los conmutadores están conectados al conmutador principal de cada rack. Los conmutadores Top of Rack (conmutadores ToR) están conectados a los conmutadores/enrutadores de los niveles superiores de la red MSP. Los conmutadores ToR son diferentes de los conmutadores de borde de usuario y cuentan con varios puertos de enlace ascendente de alta velocidad adicionales (como puertos de 10 Gbit/s) y un elevado número de puertos para conectar servidores. Los conmutadores ToR se instalan por parejas para garantizar la redundancia y permitir el mantenimiento de los conmutadores. Las ventajas de este esquema de conexión ToR son la menor longitud de cable al cablear dispositivos en un rack y entre racks. Los conmutadores de acceso de la topología de red jerárquica multinivel suelen utilizarse como conmutadores ToR.

Dirección del tráfico

Las desventajas explicadas anteriormente no son demasiado críticas, y una red de centro de datos puede funcionar satisfactoriamente con una administración adecuada. El cambio de L2 a L3 en una parte de la red ayuda a resolver una serie de problemas. Hay otra función relacionada con cómo han evolucionado los centros de datos y cómo las aplicaciones se ejecutan hoy de forma diferente a como lo hacían antes. En la década de 2000, las aplicaciones se creaban utilizando una arquitectura centralizada, y las aplicaciones de la arquitectura cliente-servidor eran principalmente monolíticas. Esto significa que los componentes de una aplicación pueden estar ubicados en un único servidor. Como resultado, en nuestro diagrama, la petición del usuario se enviaba desde la parte superior de la red, y la petición generada por la aplicación se enviaba desde el nivel inferior del servidor de vuelta a la parte superior de la red. La solicitud del usuario se gestionó en un único host. El tráfico horizontal (este-oeste) entre hosts era mínimo, y el tráfico norte-sur estaba a favor. La topología de red tradicional jerárquica multinivel utilizada para las redes MSP en centros de datos cumple estos requisitos. Sin embargo, con el tiempo, se favorecieron nuevas arquitecturas a la hora de desarrollar aplicaciones.

Tráfico Norte-Sur en la red tradicional de 3 niveles

Arquitectura en capas de N niveles. Los componentes de la aplicación se distribuyen en varios niveles, por ejemplo, el nivel lógico, el nivel de presentación y el nivel de datos. Las aplicaciones web que tienen múltiples componentes requieren que estos componentes se ejecuten en diferentes servidores, por ejemplo, un servidor web, un servidor de aplicaciones y un servidor de base de datos. Los componentes de las aplicaciones que se ejecutan en varios servidores interactúan entre sí a través de una red.

La arquitectura de microservicios presupone que los componentes de una aplicación (servicios) se ejecutan en contenedores separados y lógicamente aislados que están conectados entre sí a través de una red. Los contenedores pueden ejecutarse en diferentes hosts en clusters. Esta arquitectura es altamente escalable y se utiliza mucho en las nubes hoy en día.

Además, los centros de datos operan ahora con Big Data, grandes bases de datos, analítica, publicidad contextual, aplicaciones basadas en inteligencia artificial y otros programas que requieren interconexión con múltiples servidores, matrices de almacenamiento, máquinas virtuales o contenedores. Los componentes de la aplicación se distribuyen entre varios servidores o máquinas virtuales en el centro de datos.

Como resultado, el tráfico este-oeste es mayor que el tráfico norte-sur en la red MSP. El tráfico interno en la red de un centro de datos (tráfico intra-CD) es mayor que el tráfico de/a un usuario externo que envía una petición al centro de datos. No hay que olvidar el tráfico interno entre sistemas de almacenamiento, la replicación de bases de datos, el backup de datos y otras actividades de servicio que utilizan la red en un centro de datos.

Tráfico Este-Oeste en la red tradicional de 3 niveles

En los siguientes diagramas se puede ver la representación gráfica del creciente tráfico interno en las redes de MSP dentro de los centros de datos en los últimos años. La tendencia muestra que el tráfico intra-DC está creciendo más que el tráfico entrante/saliente.

Crecimiento del tráfico interno en los centros de datos

Las redes tradicionales, construidas utilizando la topología de red jerárquica tradicional de tres niveles, son fiables pero no están adaptadas a los flujos de tráfico lateral de la forma más racional. Esto se debe al énfasis en las redes L2 y el tráfico norte-sur.

Topología de la red Clos

Inicialmente, la red Clos fue inventada por Edson Erwin en 1938. En 1953, Charles Clos decidió utilizar redes de conmutación no bloqueantes en los sistemas de telefonía para un uso más racional de las comunicaciones en comparación con el esquema de comunicación de barras cruzadas. Con matrices con un número reducido de interconexiones, entradas y salidas, el esquema de conexión parece difícil a primera vista. Sin embargo, la red Clos es menos compleja debido al menor número de puntos de conexión según la fórmula 6n^(3/2)-3n. Este hecho queda claro a partir de los 36 puntos finales de conexión.

Un esquema sencillo de la red Clos

Si m es el número de interruptores de entrada y n es el número de interruptores de salida, las características de bloqueo de la red Clos se calculan mediante la fórmula. Según el teorema de Clos, una red Clos es estrictamente no bloqueante si el número de conmutadores de segunda etapa m ≥ 2n-1.

La red de bloqueo es una red en la que es imposible encontrar un camino de comunicación desde un puerto de entrada libre a un puerto de salida libre.

La red no bloqueante es aquella en la que siempre existe un camino para conectar cualquier puerto de entrada y salida. Las redes no bloqueantes se crean añadiendo una etapa de conmutación adicional.

La red no bloqueante reordenable es la red en la que se pueden reordenar todos los caminos posibles para conectar todos los puertos de entrada y salida.

La red Clos no bloqueante reordenable

A finales de los años 90, con la evolución de las tecnologías de telecomunicación y las redes informáticas, el concepto de redes Clos volvió a cobrar relevancia. Es necesario que todos los nodos se comuniquen entre sí en el tejido de la red y, si es posible, no utilizar la topología de malla completa cuando todos los dispositivos están interconectados. Se ha añadido una nueva capa de comunicación para interconectar dispositivos de red. Como resultado, el concepto de red Clos revivió en una nueva encarnación. En la siguiente imagen, puede ver un esquema típico de la red Clos de capa arbórea.

Comunicación de la topología de la red Clos

Modifiquemos la vista de la red Clos a la vista Hoja-Espina ampliamente utilizada para mayor comodidad, doblando los lados izquierdo y derecho del esquema. Esta topología de red se conoce como red Leaf-Spine, Folded Clos y 3-stage Clos (véase la siguiente imagen).

La capa de columna vertebral. Los conmutadores espina se utilizan para interconectar todos los conmutadores hoja en la topología de red de malla completa. La capa troncal sustituye, hasta cierto punto, a la capa de agregación utilizada en la topología de red jerárquica tradicional de tres niveles. Pero la capa de columna vertebral no es un equivalente directo de la capa de agregación. La principal tarea de la capa vertebral es la transferencia rápida de datos de una hoja a otra. Los dispositivos de punto final no están conectados a conmutadores de columna vertebral.

La capa de hojas. En este modelo, los servidores u otros dispositivos finales del centro de datos se conectan a las hojas. Todas las hojas están conectadas a todas las espinas. Como resultado, hay un gran número de conexiones de red con el mismo ancho de banda entre todos los servidores. Existen conexiones L3 entre las espinas y las hojas (L3 en el modelo OSI).

Cuando el tráfico se transmite del origen al destino en la red, el número de saltos es el mismo (por ejemplo, se necesitan tres saltos para transferir datos entre cualquier servidor de la red de dos niveles de hojas en el esquema siguiente). La latencia es previsible y baja. También aumenta la capacidad de la red porque ya no es necesario utilizar STP. Cuando se utiliza STP para conexiones redundantes entre switches, sólo puede estar activo un enlace a la vez.

En la topología de red hoja-espina, puede utilizarse el protocolo de enrutamiento Equal-Cost Multipath (ECMP) para equilibrar la carga de tráfico y evitar bucles de red (para conexiones de red L3). También se pueden utilizar los protocolos BGP, OSPF, EIGRP e ISIS.

La topología de la red Clos desde el punto de vista de la hoja y la espina dorsal

Este concepto de red también se conoce como topología de red multicapa fat-tree. La idea es evitar los cuellos de botella en las capas superiores del árbol (cerca de la raíz del árbol) y añadir enlaces adicionales para aumentar el ancho de banda en estos segmentos. El resultado es una creciente capacidad de enlace hacia la raíz. El árbol de grasa es un caso especial de la red Clos. La red de tres niveles Clos se transforma en una red de dos niveles hoja-espina después del plegado. Para acceder a redes externas y a otros centros de datos pueden utilizarse conmutadores de hoja o conmutadores/enrutadores de borde de hoja.

La topología de red sin grasa es una variación de la red Clos

Ventajas de la topología de red hoja-espina dorsal

La topología de red hoja-espina ofrece una serie de ventajas sobre la topología de red acceso-agregación-núcleo. Este conjunto de ventajas es la razón para utilizar el tipo de topología de red hoja-espina en un centro de datos.

Conexiones optimizadas. Los enlaces con gran ancho de banda entre dispositivos de red son óptimos para el tráfico este-oeste. No hay enlaces no utilizados (ya que se utiliza L3 en lugar de L2). Se recomienda ECMP para una alta eficiencia, y STP no es necesario.

Fiabilidad. El fallo de un dispositivo o la desconexión de un enlace no causan resultados negativos ni desventajas significativas. Si falla el conmutador ToR que actúa como conmutador hoja, se ve afectado el rack correspondiente. Si falla un conmutador troncal, el ancho de banda de la red se degrada, pero no significativamente en comparación con la topología de red jerárquica tradicional de 3 niveles. La degradación del ancho de banda para la topología espina-hoja es 1/n, donde n es el número de espinas. La degradación del ancho de banda para la topología jerárquica es del 50% en este caso.

Gran escalabilidad. Puede añadir nuevas hojas hasta que tenga puertos libres en los lomos. La adición de nuevas espinas permite aumentar los enlaces ascendentes de las hojas. Añade conmutadores/enrutadores de borde para aumentar el ancho de banda hacia redes externas. El enfoque tradicional para aumentar el ancho de banda y conectar más servidores para la topología de red jerárquica en árbol consiste en añadir más tarjetas de red con más puertos, equipos de red con interfaces de red más rápidas y hardware más potente en general. Este enfoque tradicional se denomina ampliación o escalabilidad vertical.

Cuando se utiliza la topología de red hoja-espina en centros de datos y para redes MSP, se puede añadir una capa adicional de espinas. Este enfoque se denomina ampliación horizontal o scaled out. Añadir un dispositivo de red típico, como un switch/router, aumenta la escalabilidad de forma lineal.

Mantenimiento. Puede desconectar fácilmente las columnas de la red para su mantenimiento o sustitución. Las tareas de mantenimiento en la columna vertebral no son arriesgadas en comparación con las cajas de dios porque no hay funciones de inteligencia en las columnas vertebrales, y la reducción del ancho de banda es mínima tras la desconexión.

Red Clos de varios niveles

En la sección anterior, expliqué la red Clos de tres etapas con las etapas: Interruptor de entrada, Interruptor intermedio e Interruptor de salida. Como los dispositivos de las etapas de entrada y salida se utilizan para recibir/enviar datos, el esquema de red puede plegarse utilizando una línea intermedia consistente en una topología de red de dos niveles en forma de hoja y espina dorsal. Puede añadir más etapas y construir la red Clos multinivel para conectar más dispositivos de red a esta red. En este caso, tiene cinco etapas: Interruptor de entrada, Interruptor central 1, Interruptor central 2, Interruptor central 3, Interruptor de salida.

En el siguiente diagrama se puede ver el esquema inicial de la red Clos no bloqueante de cinco etapas tras la reordenación de los bloques azul y verde. También existe la vista de espina de hoja plegada o la vista de árbol grueso (4,3) (porque hay 4 conmutadores de espina y 3 etapas en el esquema de espina de hoja), pero veamos cómo conectar dispositivos en la red Clos de 5 etapas paso a paso. Un tipo de topología de red Clos con más de 5 etapas no es habitual y no se utiliza en la práctica porque el número de conexiones es demasiado grande.

Topología de red Clos de cinco etapas

Después de girar el esquema inicial de la red Clos de cinco etapas 90 grados en el sentido de las agujas del reloj, tendrá la vista tradicional con interruptores de entrada, interruptores de salida y tres etapas de interruptores intermedios. Dibujemos la línea de plegado a través de los interruptores centrales en el centro del esquema para obtener la vista plegada de la red Clos de cinco etapas.

La vista girada de la red Clos de cinco etapas

Después de plegar el esquema, se obtiene la vista plegada o la vista en espina de hoja de este tipo de topologías de red (véase el esquema siguiente). Hay 4 grupos individuales que actúan como puntos de entrega (POD). El POD es la unidad universal para la construcción de centros de datos. Los POD están conectados a las espinas del primer nivel. Si necesita ampliar su centro de datos o añadir más servidores/equipos de red, añada nuevos POD y conéctelos a la estructura de red. Las espinas de un POD están conectadas a las espinas de otros POD a través de espinas de segundo nivel. Al mismo tiempo, no todas las espinas L1 están conectadas a todas las espinas L2, y están divididas por planos.

En el siguiente esquema hay dos planos: el Plano 0 y el Plano 1. Este concepto se utiliza debido al número limitado de puertos de las espinas, y crear una topología de red totalmente conectada no es posible en este caso. En el esquema siguiente, cada columna vertebral tiene un límite de 4 puertos. Según la idea principal, la red Clos no bloqueante se basa en los mismos elementos (conmutadores de 4 puertos, como se ve a continuación).

Vista plegada de la topología de la red Clos de cinco etapas

A primera vista, puede confundirse con términos como Clos, Clos plegado, hoja-espinazo y árbol gordo. Permítanme aclarar estos términos.

Clos o red Clos es el término que engloba la base teórica del tipo de topología de red Clos.

Clos plegado es una representación más cómoda de la red Clos, en la que las entradas y las salidas tienen la misma función y están situadas en el mismo lugar.

Leaf-spine es una topología de red basada en el esquema de red Clos que se utiliza en la práctica en los centros de datos para construir redes, incluidas las redes MSP.

El árbol de grasa suele considerarse una variante de la red Clos. Este término es el más confuso porque algunos artículos mencionan el árbol de grasa como la clásica red de núcleo de agregación de acceso. Me remito al documento RFC 7938 que dice que el árbol gordo se basa en la topología de red plegada Clos.

Cálculos

Puede calcular el número de conmutadores de núcleo, conmutadores de borde, conmutadores totales necesarios y el número total de hosts que pueden conectarse a la red de la configuración seleccionada mediante fórmulas en las que:

k es el número de puertos del conmutador

L es el número de niveles de la topología de red hoja-espina (árbol grueso).

Cálculos

El principal parámetro que hay que calcular antes de construir la red es el número de hosts compatibles. La configuración fat-tree puede escribirse como FT(k, L). Por ejemplo, FT(32,3) es una red fat-tree de tres niveles con conmutadores de 32 puertos. Puede utilizar esta calculadora gratuita para redes Clos que también genera el esquema de visualización para la configuración seleccionada.

Puedes calcular que si tu esquema de red fat-tree tiene 2 niveles y 8 puertos por switch, entonces puedes conectar 32 hosts a la red. Si aumenta el número de puertos por conmutador, el número de hosts admitidos aumenta a 512. Como puedes ver, el número de hosts conectados depende del número de puertos de cada switch. Si se deja el árbol de grasa en 2 niveles (la red Clos de 3 etapas) y se aumenta el número de puertos por conmutador, el número de espinas aumenta considerablemente. Puede resolver este problema añadiendo un nivel más al árbol de grasa. Para un árbol de grasa de tres niveles, si el número de puertos por switch es 8, se pueden conectar 128 hosts.

Cálculo y visualización de redes topológicas sin grasa

Si aumenta el número de puertos por switch a 32, podrá conectar 8192 hosts utilizando esta topología de red. Esta cifra para la red Clos de 5 etapas es 16 veces superior a la de la red Clos de 3 etapas. Tenga en cuenta las limitaciones del rack de servidores cuando planifique el esquema de instalación de servidores y equipos de red en el centro de datos.

Los números impares de etapas se utilizan para construir redes Clos no bloqueantes (3, 5, 7, etc.). La red Clos de 2 etapas no ofrece conectividad no bloqueante ni conexiones múltiples entre conmutadores.

En el siguiente diagrama, se puede ver que en el caso de la red Clos de dos etapas, sólo hay una ruta de transmisión para conectar el Servidor 1 y el Servidor 2. Sólo ¼ de los puertos están conectados, otros puertos no están conectados y te bloquean.

La red Clos de dos etapas es la red de bloqueo y no se utiliza

La relación de sobresuscripción es la relación entre el ancho de banda de entrada y el ancho de banda de salida en la dirección de las capas inferiores a las superiores. El porcentaje de sobresuscripción suele oscilar entre 2 y 4.

Ejemplo: Un conmutador tiene 48 puertos de 10 Gbit y 4 puertos de enlace ascendente de 40 Gbit. El ancho de banda total de los enlaces descendentes a los servidores es de 48×10=480 Gbit/s. La velocidad total de los enlaces ascendentes es de 4×40=160 Gbit/s. La proporción de sobresuscripción es de 480/160=4.

Si la velocidad total del ancho de banda es igual para todos los puertos de enlace descendente y ascendente del conmutador, el conmutador no está sobresuscrito y no hay cuellos de botella en este caso. Una proporción de sobresuscripción de 1:1 es el caso ideal. Estime el tráfico en distintas direcciones antes de comprar conmutadores con la velocidad y el número de puertos adecuados.

Los conmutadores que tienen una relación de sobresuscripción superior a 1 suelen utilizarse en la etapa de hoja en redes de topología de red de hoja-espina. Los conmutadores no sobresuscritos deben utilizarse en la etapa de la columna vertebral. Los conmutadores en el nivel de hoja en el tipo de topología de red hoja-espina se utilizan normalmente como conmutadores ToR. Sin embargo, es posible instalar interruptores de hoja como interruptores de fin de fila.

Diferencias esenciales

Al crear una red, algunas decisiones afectan al diseño de la misma. He aquí algunas decisiones que afectan al funcionamiento de la red.

Parte superior de la estantería frente a final de fila

El esquema de conexión de red Top of Rack (ToR) en un centro de datos consiste en instalar uno o varios switches en cada rack. Los cables de conexión cortos se utilizan para conectar la parte superior del conmutador de rack con otros equipos de red y servidores dentro del rack. Los conmutadores ToR suelen tener enlaces ascendentes de alta velocidad con los conmutadores/routers del nivel superior y pueden conectarse con cables de fibra óptica. La ventaja es que, al utilizar este esquema de conexión para una red MSP, no es necesario instalar un grueso montón de cables desde cada bastidor del centro de datos. El uso de cables en el centro de datos es más racional cuando se utiliza el esquema ToR. En este caso, gastas menos en cableado y tienes una mejor gestión de los cables. Puede gestionar cada bastidor como un único módulo sin afectar a otros bastidores dentro de un centro de datos, ya que sólo se ven afectados los servidores de un bastidor. A pesar del nombre del esquema, puedes montar un conmutador en el centro o en la parte inferior de cada rack.

Esquema de conexión de red en la parte superior del bastidor de un centro de datos

El esquema de conexión de red de final de fila (EoR) se produce cuando un bastidor de servidor situado al final de la fila contiene equipos de red. El equipo incluye un conmutador de red común para conectar todos los servidores y otros dispositivos de todos los bastidores de servidores de la fila. Los cables de los equipos de red instalados en el rack de servidores EoR se conectan a los dispositivos de todos los racks de la fila mediante paneles de conexión montados en cada rack. Como resultado, se utilizan cables largos para conectar todos los dispositivos de red en fila. Si se utilizan conexiones de red redundantes, también aumenta el número de cables. Los bultos gruesos de cables pueden bloquear el acceso de aire al equipo.

En un centro de datos, los bastidores de servidores suelen estar situados en filas paralelas. Una fila puede contener, por ejemplo, 10 ó 12 estanterías. Toda la fila se considera una única unidad de gestión cuando se utiliza el esquema de conexión EoR para la red MSP en un centro de datos. En este caso se utiliza el modelo de gestión por filas. En el modelo de conexión de red EoR se necesitan menos conmutadores individuales. La flexibilidad es menor cuando es necesario realizar tareas de mantenimiento o actualizar los conmutadores, ya que se ven afectados más dispositivos cuando se desconecta un conmutador EoR. A pesar de su nombre, un bastidor con un interruptor común (interruptores) se puede colocar en el centro de la fila.

El fin del esquema de conexión a la red de filas

Conexión de Capa 2 frente a Capa 3

Decidir las conexiones dentro de una red es un cálculo en el que intervienen la fiabilidad, la velocidad y el gasto, así como la topología que se crea.

Por ejemplo, existen segmentos de red para la topología de red Access-Aggregation-Core de tres niveles y la topología Leaf-Spine. Allí, el tráfico se transfiere en el modelo OSI L2 y L3. En la red jerárquica de tres capas, la capa de acceso opera en L2, la capa de distribución/agregación agrega enlaces L2 y proporciona enrutamiento L3, la capa de red central realiza el enrutamiento en la tercera capa del modelo OSI. La red de la topología Leaf-Spine de varios niveles puede configurarse utilizando L2 con VLAN y L3 con enrutamiento IP y subredes.

Los equipos de red L2 son más asequibles que los de red L3, pero existen algunas desventajas cuando se utilizan redes L2 para conectar dispositivos de red en la red MSP de un centro de datos. La VLAN suele utilizarse para aislar lógicamente redes que utilizan el mismo entorno físico. El número máximo de VLAN es 4095 (menos algunas VLAN reservadas como 0, 4095, 1002-1005).

Otra desventaja, como ya se ha mencionado, es la imposibilidad de utilizar enlaces redundantes cuando se utiliza STP en L2. Esto se debe a que sólo un enlace puede estar activo al mismo tiempo, y no se utiliza todo el ancho de banda disponible de todos los enlaces. Entonces el dominio L2 con STP se hace grande, aumenta la probabilidad de problemas causados por un cableado inadecuado y errores humanos, y la resolución de problemas se hace difícil.

Una configuración de red L3 permite a los ingenieros mejorar la estabilidad y escalabilidad de la red MSP y de las redes de centros de datos en general.

Los siguientes protocolos de red le ayudan a gestionar la red L3 y enrutar el tráfico.

BGP (Border Gateway Protocol) es un protocolo de enrutamiento dinámico ampliamente utilizado y considerado el estándar en muchas organizaciones con centros de datos a gran escala. BGP es un protocolo altamente escalable, ampliable y eficiente.

ECMP (Equal Cost Multipath Routing) es una tecnología de enrutamiento de red que se utiliza para distribuir el tráfico mediante el uso de múltiples mejores rutas que se definen por métricas en la tercera capa del modelo OSI. ECMP con protocolos de enrutamiento se utiliza para equilibrar la carga en grandes redes. La mayoría de los protocolos de encaminamiento, incluidos BGP, EIGRP, IS-IS y OSPF, son compatibles con la tecnología ECMP.

Intente utilizar siempre los protocolos de red más avanzados. Pero recuerde que cuantos menos protocolos se utilicen en la red, más cómoda será su administración.

Topología de red para NV y SDN

Además de la virtualización del hardware y el uso de máquinas virtuales, también se ha popularizado la virtualización de la red con un enfoque centrado en las aplicaciones. Las soluciones de virtualización de red (NV) como VMware NSX, las redes OpenStack y Cisco ASI utilizan intensivamente el tráfico este-oeste en la red física, y una topología de red de espina de hoja es adecuada para las soluciones de virtualización de red por este motivo. Lea la entrada del blog sobre VMware NSX para obtener más información sobre la virtualización de redes.

Las redes definidas por software (SDN) se utilizan para virtualizar las redes y conseguir un uso eficaz de los recursos, flexibilidad y una administración centralizada. Se trata de una solución óptima en un centro de datos virtualizado en el que se utilizan máquinas virtuales conectadas a la red. Las máquinas virtuales pueden migrar entre servidores, creando así tráfico este-oeste dentro del centro de datos. La SDN es ampliamente utilizada para redes MSP por los MSP que proporcionan IaaS (infraestructura como servicio).

La configuración de redes definidas por software es eficaz cuando se utiliza la topología de red de espina de hoja subyacente con enrutamiento dinámico, un número fijo de saltos, baja latencia predecible y optimización del tráfico este-oeste para la comunicación de servidor a servidor en un centro de datos.

VXLAN

VXLAN (Virtual eXtensible Local Area Network) es un protocolo de red mejorado que se utiliza en lugar de VLAN en redes superpuestas. Los túneles L2 se crean utilizando las redes L3 subyacentes (L3 network underlay) para proporcionar conectividad de red L2 sin las limitaciones tradicionales de VLAN. Con VXLAN, puede configurar la red L2 sobre la red L3. La topología virtual puede ser diferente de la topología física de la red subyacente.

Las tramas VXLAN se encapsulan en paquetes IP utilizando el esquema de encapsulación MAC-in-UDP. VNI es el equivalente de VLAN ID. El número máximo de VNI es 2^24, es decir, unos 16 millones. VXLAN se utiliza para crear redes L2 en entornos geográficamente dispersos, por ejemplo, cuando se necesita crear una red a través de dos centros de datos distribuidos geográficamente.

El uso de VXLAN y la virtualización de red ayuda a optimizar el tamaño de la tabla de direcciones MAC para los switches ToR. Esto se debe a que las direcciones MAC utilizadas por las máquinas virtuales y el tráfico L2 relacionado se transfieren a través de la red superpuesta L2 utilizando VXLAN. No sobrecargan las tablas MAC de los conmutadores físicos. Las tablas de direcciones MAC de los conmutadores físicos no superan la capacidad máxima disponible de la tabla de los conmutadores.

Conclusión

Tradicionalmente, las redes de los centros de datos se construían utilizando la topología clásica de tres niveles de acceso-agregación-núcleo. Dada la evolución de las aplicaciones cliente-servidor y distribuidas modernas, los microservicios y otro software que son fuentes de tráfico este-oeste dentro de las redes MSP, la topología de red de espina de hoja, basada en el concepto de red Clos, es la preferida en los centros de datos modernos y es una de las topologías de red más comunes. La topología de red hoja-espina es la mejor topología de red para grandes centros de datos porque es muy fiable y escalable. Antes de instalar una red en un centro de datos, haga los cálculos y estime el tráfico generado y las cargas de trabajo. Contabiliza el tráfico de servicios, como el tráfico de backup y replicación en la red.

NAKIVO Backup & Replication es un potente software de copia de seguridad de máquinas virtuales que puede proteger las cargas de trabajo de VMware Cloud Director, VMware VMs, Hyper-V VMs, así como máquinas físicas Linux y Windows, bases de datos Oracle. Los proveedores de servicios gestionados que ofrecen infraestructura como servicio (IaaS), backup como servicio (BaaS) y recuperación ante desastres como servicio (DRaaS) pueden utilizar NAKIVO Backup & Replication instalado en el modo multiinquilino. Descargue la versión de prueba gratuita de NAKIVO Backup & Replication for MSPs compatible con el modo de instalación multi-tenancy.

Try NAKIVO’s Solution for Free to Deliver BaaS and DRaaS

Try NAKIVO’s Solution for Free to Deliver BaaS and DRaaS

Get NAKIVO’s free trial version for MSPs for 15 days to deliver BaaS, DRaaS and other data protection services.

Artículos recomendados