Avaya cierra las brechas en la evolución de de redes y centros de datos definidos por software

Datamation de Argentina entrevistó a Gaston Tanoira Gerente de Desarrollo de Negocios para Networking y Virtualización de Avaya, quién nos explicó interesantes aspectos de la evolución de SDN (Software Defined Networking) y SDDC (Software Defined Data Center), dos nuevos enfoques de tecnología que todavía no ha madurado. Con una mezcla de tecnología abierta y propia, ambas altamente probadas, Avaya ya satisface a la mayoría de los objetivos que se plantean con SDN y SDDC.

Lo que se entiende generalmente en el mercado como redes definidas por software es una nueva arquitectura que consiste básicamente en separar el plano de control del plano de transmisión de datos. La idea de SDN es que los switches se dediquen solamente a “switchear” (Conmutar). Se trata de tener una topología donde se bajen las tablas de forwarding a los switches de una forma centralizada, donde el plano de control se ocupa de bajar la inteligencia al switch.

Esto tiene sus ventajas y también sus riesgos. Entre las ventajas tenemos a la facilidad de hacer upgrades a las redes viéndolas como a una red completa porque todo el plano de control está centralizado. En una red convencional, si se quiere hacer un upgrade, hay que tocar todos los dispositivos de la misma. Entre las desventajas está el mismo hecho del control centralizado y si hay un ataque, es más fácil afectar a toda la red.

Obviamente todos los fabricantes de networking estamos trabajando en SDN y en la forma en que lo podemos incorporar. En el caso de Avaya estamos trabajando con lo que llamamos Fabric Networks. Contamos con la tecnología Fabric Connect, que nos permite extender el Fabric (tejido) a toda la red, de punta a punta. No sólo manejamos el centro de datos como todos los proveedores, sino que nos podemos extender a toda la red, incluso a los dispositivos remotos. Con esta tecnología, estamos solucionando varios de los problemas para cuya solución se creó SDN. Con la arquitectura de Avaya tenemos una red que es mucho más fácil de diseñar, implementar y administrar, ya que es agnóstica respecto a la topología y todos los servicios se implementan en los equipamientos del borde de la red. Por otro lado, todo lo que es el core (núcleo) de la red se diseña, se implementa y se configura una vez y no se vuelve a tocar. Todo cambio, movimiento o adición de servicios, se realiza en el borde de la red.

Esta sería otra de las ventajas de SDN, la de que los switches del core se dediquen a switchear rápidamente, lo que aumenta la velocidad de la red y aumenta la disponibilidad, con tiempos de re convergencia menores a 20 milisegundos. Todo esto lo resuelve Fabric Connect bajando un solo protocolo, SPB (Shortest Path Bridging), un protocolo estándar de la IEEE/IETF que reemplaza a todos los protocolos superpuestos en capas que encontramos en las redes IP tradicionales y traen complejidad a la implementación, a la administración y al mantenimiento.

También afecta a la estabilidad de la red. Con Fabric Connect usamos un solo protocolo. Como dijimos antes, los switches del core se dedican al transporte eficiente y la inteligencia necesaria para la entrega de servicios, donde se hacen los filtros, está en el borde de la red.

Desde el punto de vista de desarrollo, la propuesta es la misma que la de SDN, separar el control del tráfico de la red. El plano físico del de control y existe un plano de configuración. Fabric Connect, en términos de arquitectura y funcionalidad, tiene semejanza con los objetivos de SDN en términos de dónde se configuran los servicios y cómo se actualiza el core.

Esta modalidad ofrece gran flexibilidad. Al igual que en SDN, con Fabric Connect la idea es que, cuando el paquete ingresa a la red, el dispositivo de acceso ya sepa de dónde proviene ese paquete y cuál es su destino mediante short path labels que son de uso interno de la red, en forma similar a MPLS. Los switches del core toman esa etiqueta y toman su decisión de ruteo en base a la misma. Por esa razón si, por ejemplo, se quiere pasar de IP V4 a IP V6, la actualización debe realizarse únicamente en los switches del borde, al igual que con otro tipo de servicios, ya que los del core son transparentes por completo.

Las capacidades mencionadas sirven también para cuando se necesita utilizar otro tipo de protocolo que no sea IP, como puede ser SCADA (Supervisory Control And Data Acquisition) para el control de máquinas de producción, plataformas de energía, control de válvulas y otras aplicaciones. SCADA es un protocolo que puede trabajar sobre Ethernet pero no es IP. Con este tipo de arquitectura de Fabric Connect, no hay que hacer ningún cambio en el core y esa información puede fluir por la red ya que es toda capa 2 (L2) y no requiere IP.

Para el Data Center, Avaya cuenta con una arquitectura de nueva generación que es distinta a lo que se viene manejando en los últimos años, donde generalmente existen tres capas: una capa de acceso, una de distribución y una del core. Nuestra propuesta tiene en cuenta los cambios que producen tendencias como la virtualización, que cambian los patrones de tráfico dentro del data center. Hoy vemos que el 80% del tráfico dentro del data center es entre servidores, cuando antes ese 80% provenía de afuera, se procesaba y se volvía a enviar al usuario. Hoy con la virtualización y otras aplicaciones el 80% e incluso más, está dentro del data center.

En Avaya creemos que esa arquitectura de tres capas no es eficiente porque cuando una transacción tiene que ir de un servidor a otro, tiene que ir a la capa de acceso, distribución, core y luego bajar de la capa de distribución a la de acceso, para recién ir al otro servidor. En ambientes donde el tráfico en el data center era sólo del 20%, eso no tenía tanto impacto, pero en la actualidad ese esquema complica el rendimiento. Con nuestra arquitectura denominada Distributed Top-of-Rack, se propone tener básicamente dos capas: una de acceso y una de core. Conectamos a todos los switches de acceso entre sí y entonces, cuando una transacción tiene que ir de un servidor a otro, va a la capa de acceso que la pasa al otro switch. Tenemos tecnología para conectar hasta 200 de esos switches juntos, de forma que actúen como un único switch lógico y eso trae grandes eficiencias en términos de la performance de las aplicaciones. En esta infraestructura soportamos FCoE (Fibre Channel over Ethernet), por lo que los arreglos de storage o directors que soportan esta conexión, pueden ser conectados a la plataforma de Avaya.

Avaya tiene una estrategia de SDN para el data center. Actualmente estamos avanzando en la integración con OpenStack, el estándar que fue creado por Rack Space junto con la NASA. OpenStack, para dar una idea general, tiene cuatro módulos: uno es la interfaz de administración para manejar todas las plataformas que pueden encontrarse en un centro de datos. Las plataformas principales son todos los activos de lo que es cómputo, que esquemáticamente se traducen en número de cores de CPU y memorias RAM. Luego tenemos los recursos de red para conectividad y por último los recursos de storage.

Nuestra integración en la capa de cómputo es principalmente con VMware y Microsoft Hyper-V. La plataforma de administración es Horizon, la interfaz gráfica para esa finalidad.

Respecto a OpenStack, ya hemos construido todas las APIs (Application Programming Interfaces) en Fabric Connect, que es lo que conecta con el módulo Neutron en cuanto a networking.

También estamos trabajando en lo que llamamos un Orchestration Suite, en la que estamos poniendo algunas aplicaciones de valor agregado como monitoreo, troubleshooting o el chequeo del status de todas las plataformas que operamos. Orchestration Suite tiene integración norte-sur para la tecnología que utilizamos en el centro de datos.

Con la integración de OpenStack apuntamos a darle a nuestros clientes una experiencia similar a la de una nube privada, donde crear nuevas aplicaciones y servicios es muy sencillo y toma básicamente entre cuatro y cinco pasos. El administrador tiene que entrar al módulo de Horizon, crear el perfil, crear el dominio, establecer el perfil de los usuarios, definir las condiciones de la red para esa aplicación con la interfaz de OpenStack y establecer qué recursos de computación necesita, como CPU, memoria RAM, storage, etc. OpenStack se encarga entonces de conseguir los recursos. Por ejemplo, va a VMware y le pide una máquina virtual, la cantidad de procesadores y memoria RAM. Luego va a un dispositivo EMC, por ejemplo y le pide el storage necesario. Con FabriConnect establece cuáles usuarios se pueden conectar y en qué localidades estará disponible el servicio.

Recordemos que, para poder implementar una estrategia de Software Defined Data Center, todas las plataformas tienen que estar virtualizadas. La parte de cómputo con VMware o Hyper-V de Microsoft, al igual que el storage, y lo que es red con Fabric Connect. El sistema operativo, cuando es Linux, viene del lado de la aplicación, por lo que lo manejan plataformas como VMware, por ejemplo.

Volviendo a SDN, recordemos que lo que hace es separar el plano de datos del plano de control. El plano de control, que entre otras cosas se encarga de suministrar las tablas para que los switches físicos manejen los paquetes de datos, junto con el protocolo que comunica con los switches, es la parte de OpenFlow o sea la tecnología que utiliza el plano de control para comunicarse con el plano de datos.

La tecnología Fabric Connect de Avaya utiliza el protocolo SPB y, a diferencia de la tecnología Fabric Path de Cisco, permite que sus switches puedan conversar con los de otros proveedores como Brocade, HP o Juniper. En Avaya han extendido el protocolo SPB y eso hace que exista una porción de comunicación propietaria, lo que no impide que se logre un buen grado de interoperabilidad con otras plataformas. En el caso de Cisco, cuando se tiene que agregar un servicio, siempre habrá que hacerlo con recursos de Cisco. En realidad encierra al cliente en un entorno propietario.

Algo más que comentar respecto a SDN:

En realidad en Latinoamerica no se conocen implementaciones de SDN, solo se sabe de algunos proveedores de servicio realizando pruebas. Y es alli donde Fabric Connect de Avaya juega un papel clave ya que presta los beneficios que SDN busca brindar, pero con tecnología ya existente, probada con éxito en cientos de implementaciones.

Hemos escuchado muchos comentarios acerca de carencias de OpenFlow en cuanto a administración y operación. Creemos que como estrategia, la gente de IT tiene que pensar en los beneficios que se logran con la tecnología y no en la tecnología en sí. Creemos que hay beneficios de SDN o de Fabric Connect y son que la red sea más simple, que resulte más fácil de diseñar, implementar y operar; y que tenga mejor performance en términos de disponibilidad. Se trata de terminar con los problemas en las redes que tienen muchos años. Se han puesto protocolos sobre protocolos y, cuando se cambia uno de esos protocolos se viene todo abajo y se cae la red. Nuestra propuesta es manejar un solo protocolo, donde los tiempos de re convergencia son de milisegundos. Es implementar los servicios en los dispositivos del borde. El core no se toca.

En una red tradicional cuando hay que implementar un servicio no sólo hay que tocar las puntas del recorrido que utilizará. También hay que pedir ventanas de mantenimiento, bajar la red y todo eso. Tenemos varios clientes que nos dicen que han eliminado la necesidad de tener ventanas de mantenimiento, que ya no tienen que trabajar fines de semana ni bajar la red.

Fabric Connect es una tecnología probada. Hay cientos de empresas que la utilizan, incluyendo Bancos que implementan servicios en horarios laborales sin alterar el funcionamiento de la red. Tenemos implementaciones muy grandes, como fue la de las Olimpíadas de Invierno en Rusia, que se hizo con Fabric Connect y donde toda la televisación fue IP. La infraestructura conectó todas las actividades y los sistemas de toma de puntajes y tiempos de los juegos en sí; todo el sistema de back-office; la conexión de la familia olímpica, con más de 40.000 usuarios móviles. Fue la implementación de BYOD (Bring Your Own Device) más grande hasta hoy.

Este año, el back-bone de Interop 2014, Interop Net, se hizo con Fabric Connect y el año pasado también. Para este importante evento, Avaya fue adjudicada dos años seguidos, 2013 y 2014. Para este evento hay que realizar una implementación preliminar que se llama pre-stage y se realiza en California. Hay que configurar todo para verificar su funcionamiento y se tarda unos 25 días. Luego, hay una semana para implementar todo en el escenario final, que es en Las Vegas. En el 2011 el adjudicado fue Cisco, que llevó entre 25 y 30 ingenieros al pre-stage. Trabajaron más de 20 días y luego una semana en Las Vegas y todo funcionó bien. En el 2012 se adjudicó a Huawei, que tuvo dificultades aunque llevó como 30 ingenieros. Las cosas salieron con esfuerzo en el pre-stage y también hubo que solucionar problemas en Las Vegas, con dos caídas importantes durante el evento y la experiencia no fue muy buena.

En el 2013 Avaya mandó 3 ingenieros al pre-stage y la gente de Interop nos decía “miren que no podemos extendernos más de 20 días, estamos con los días contados.” En cinco días, la gente de Avaya tenía todos los equipos configurados. En Las Vegas todo se hizo rápido y funcionó sin fallas. Tal es así, que este año nos pidieron que vayamos de nuevo, algo que no es usual en Interop, el tener dos años consecutivos al mismo proveedor. Hasta escribieron un artículo en el Wall Street Journal describiendo la exitosa experiencia.

Para nosotros en Avaya, estos son los parámetros que hay que considerar en las empresas: el impacto que la tecnología tendrá en el negocio y las ventajas directamente aplicables a la velocidad del negocio. No la tecnología por la tecnología en sí.

Todavía no tengo conocimiento de empresas en Latinoamérica que hayan implementado SDN. Hay laboratorios, pero no está aplicado al negocio. En cambio, sí hay cientos de implementaciones de Fabric Connect, una tecnología probada que soluciona, sino todos los problemas para los que ha sido pensado SDN, a la mayoría de ellos.