SDN, Cloud Computing y Virtualización Impactan en la Infraestructura Física de Redes

SDN

Hace poco nos referimos a SDN (Software Defined Networks) y su papel en las estrategias de virtualización, tanto de servidores, como de redes. La nube (cloud computing), es otro factor que aporta su porción de impacto y se suma a diversas fuerzas que están impulsando grandes cambios en las infraestructuras de redes de las empresas.

Esos cambios suelen medirse en términos de sus efectos en la entrega de aplicaciones y servicios, pero, según Arthur Cole de Enterprise Networking Planet, hace falta dar una mirada en la infraestructura física de las redes.

En el mercado de routers, por ejemplo, la nube está desplazando la demanda en oficinas de sucursales, alejándola un poco de las soluciones de bajo nivel (low-end) y girándola más hacia el rango intermedio (mid-range). Esta información surge de la firma investigadora Infonetics, que reporta un crecimiento del 8% en las ventas de routers mid-range para el último trimestre de 2012. A medida que los entornos basados en servicios comienzan a hacerse más frecuentes, los puestos de trabajo ubicados en arquitecturas altamente distribuidas comienzan a requerir el mismo nivel de conectividad que los ubicados en las sedes centrales. De hecho, este crecimiento fue uno de los pocos puntos positivos para el mercado de routers en 2012, dado que el segmento en su totalidad cayó un 3% respecto al año anterior.

JuniperMientras tanto, los proveedores líderes intentan mantener el protagonismo de sus plataformas de hardware. Y es que las avanzadas y nuevas arquitecturas SDN amenazan con convertir a todo el hardware en dispositivos commodity. En ese intento de mantener vigencia, tenemos el caso de Cisco con su nuevo Integrated Services Router (ISR) ISR-AX. Este router dispone de una importante inteligencia dentro de su gabinete y ofrece un alto grado de “sensibilidad a las aplicaciones” (en inglés, sería application awareness) además de avanzadas capacidades de entrega en entornos sumamente dinámicos. El objetivo no es otro que el de convertir al humilde router, hoy un simple dispositivo de entrega de paquetes, a una plataforma de mejora del desempeño de aplicaciones. Así lo explicó a Arthur Cole el Senior Director of Mobility, Routing and WAAS de Cisco, Inbar Lasser-Raab.

Cole sigue analizando este contexto y opina que, a medida que las capacidades avanzadas de configuración y entrega van aumentando, lo mismo ocurre con la necesidad que las empresas tienen de reducir su inversión de capital y sus costos. Algunos fabricantes se han centrado en ese plano para trazar sus estrategias de desarrollo de productos, como es el caso de Juniper Networks.

Juniper ha presentado su nuevo PTX3000 Core Router, un dispositivo que encierra una capacidad de 3.80 Tbps en una caja de 10 pulgadas. Este dispositivo es un chasis de 8 slots y es capaz de despachar 240G por slot. Con un nuevo conjunto de tarjetas de línea que está en desarrollo, Juniper promete alcanzar pronto una capacidad de 24Tbps para estas cajas. Ya sea con 24 interfases de 10 GbE o dos de 100 GbE, las empresas pueden establecer capacidades core a una fracción del costo y espacio que otros diseños actuales.

Por otra parte y dado que la disposición de una funcionalidad completa en la nube depende en gran parte de entornos de redes abiertos (open networks), los conjuntos o stacks de administración están adaptándose a esta nueva realidad. Así tenemos el caso de Mellanox, proveedor que está aprovechando su experiencia en InfiniBand para alcanzar mayor apertura de Ethernet en su plataforma MLNX-OS. Actualmente, la compañía está intentando abrir funciones Layer 2 y 3 mediante licenciamiento bajo los modelos GPL (General Public License) y BSD (Berkeley Software Distribution), con lo que las empresas usuarias podrían tener la capacidad de customizar la funcionalidad de sus redes al mismo tiempo que mantienen la compatibilidad con otros entornos. Hasta hace algún tiempo, esto no representaba una preocupación porque las redes de las compañías eran esencialmente sistemas cerrados. Pero ahora, los entornos tipo hyperscale son cada vez más frecuentes. Cuando hablamos de computación hyperscale nos referimos a infraestructuras y provisioning capaces de abastecer a entornos de computación altamente distribuidos para que éstos puedan escalar en cantidad de servidores. La computación Hyperscale es utilizada en entornos como cloud computing y big data, tales como la plataforma Apache Hadoop. En esta perspectiva, la conectividad debe ser lo más amplia posible para garantizar el mayor grado de flexibilidad.

Todos estos movimientos están dando un giro un tanto sorpresivo a las arquitecturas de redes, ya que el control de la capa física, actualmente una de las mayores complicaciones que tienen las empresas, será cada vez más fácil aun cuando las nuevas arquitecturas lógicas avancen en complejidad. Con las nuevas plataformas que ofrecen cosas como carga dinámica equilibrada, monitoreo en profundidad y analíticos, sería más simple evitar cuellos de botella y otros accidentes que deterioran la performance. De hecho, todos esos aspectos deberían automatizarse por completo con el tiempo.

Bajo estos esquemas, el hardware que falle puede ser desafectado y su tráfico derivado a otros dispositivos en funcionamiento sin tener que apurarse. Ya no habrá llamados desesperados a media noche porque los pathway clave de la red están bloqueados.

Cole considera que éste es el mundo de las redes hacia el que nos dirigimos. Nuevas redes para una nueva era de comunicación digital.