El Datacenter Definido por Software Cambia las Reglas del Juego

Software Defined

Software Defined Data Center es un terreno esperado y competido

La virtualización en el centro de datos arranca con IBM hace casi 50 años. En ninguna plataforma abierta llegó a funcionar como en los mainframes, pero se van acercando.

 

 

 

El concepto de virtualización, creado por IBM para el mayor y mejor aprovechamiento de los entonces dominantes mainframes, es un concepto que ya tiene más de 50 años de vida. La arquitectura monolítica de aquellos grandes equipos fue sin duda de ayuda a la hora de posibilitar la creación de máquinas virtuales capaces de operar al mismo tiempo e un mismo equipamiento físico. IBM había logrado una evolución que en aquél tiempo no fue percibida en toda su dimensión.

Hoy los centros de datos se componen de elementos distribuidos que se conjugan e interconectan para constituir un conjunto que debe ser capaz de ofrecer las prestaciones que las organizaciones necesitan para desarrollar sus negocios. La idea de virtualizar esos contextos comienza a ganar ímpetu con los estudios que, a principios de los noventa, muestran el bajo grado de aprovechamiento que tenía cada uno de esos elementos componentes. Si bien su costo había caído en relación a los mainframes, no ocurría lo mismo con la complejidad de administración, el espacio necesario y el consumo de energía. El reaprovechamiento de esas pizcas ociosas de tecnología sólo podía lograrse creando imágenes virtuales a partir de una consolidación o pool de los recursos disponibles.

El trabajo de pionero que realizó IBM en este campo fue fuente de inspiración para la aparición, varios años más tarde, de empresas como VMware. De la misma forma en que IBM había virtualizado por entero al entorno de computación constituido por el mainfrme, es que hoy compañías como VMware, Citrix y Red Hat, tratan de hacer lo mismo a través de toda la infraestructura del centro de datos con sus servidores, almacenamientos y redes.

La Virtualización Avanza

Los ingenieros de IBM Robert Creasy y Les Comeau consiguieron que cada usuario de mainframe pudiera trabajar con una máquina virtual (VM) en forma de un entorno operativo auto contenido que permitía que muchas aplicaciones funcionaran simultáneamente en un mismo mainframe. Volviendo al presente, vemos como una nueva generación de empresas y proyectos intentan hacer eso mismo pero a partir de los centros de datos modernos y distribuidos. La idea es separar a las capas de sistema operativo y aplicaciones, de toda la infraestructura física que subyace.

De hecho, lo que se ha denominado Centro de Datos Definido por Software, es una capa de administración que, según Paul Shread, el columnista de Datamation especializado en centros de datos, se convierte en algo así como un sistema operativo de PC para todo el centro de datos, enmascarando, si no simplificando, a la infraestructura física presente y que, al mismo tiempo, se ocupa de que las aplicaciones obtengan todos los recursos que necesitan para su funcionamiento.

Sin duda el problema de virtualizar se hizo cada vez más complejo a medida que se pasó del mainframe a los entornos distribuidos, si bien la solución es esencialmente la misma. Tomó décadas de evolución pasar de la programación de tareas (job scheduling) y análisis se causas raíz a la automatización de run-books (compilación de rutinas y procedimientos de administración de los sistemas) y el aprovisionamiento de recursos (provisioning), configuración y administración de cambios. Hoy, con toda esta funcionalidad, todavía son muy pocas las compañías proveedoras que están cerca de componer en los centros de datos actuales, una tecnología de virtualización equivalente a la de un mainframe.

En un esquema ideal, los nuevos centros de datos virtuales podrían virtualizar a todo el hardware del centro de datos y permitir que las aplicaciones funcionen según criterios de importancia y momento de ejecución, haciendo que cada aplicación corra sobre el recurso físico más adecuado sin depender de su ubicación. El hardware de almacenamiento y redes podría llegar a ser tan commodity como lo han sido por bastante tiempo los servidores. Una capacidad de IT ofrecida en auto-servicio, donde los usuarios activan sus propias aplicaciones y servicios con su mouse, podría convertirse en un escenario real.

Pero siempre siguiendo con los conceptos de Shread, él nos dice que entre esa visión de un esquema ideal y la realidad, seguiría existiendo una brecha, al igual que ocurre con otros aspectos de la vida. Aunque los usuarios aspiren cada día a mayor simplificación, la tecnología que lo facilita es cada vez más compleja y, periódicamente, emerge nueva tecnología que trae consecuencias imprevistas y cambia las reglas del juego. Hoy, los centros de datos podrían estar a punto de experimentar un cambio dramático como resultado del advenimiento de lo que motiva este artículo: el centro de datos definido por software.

El mundo virtual según VMware

Uno de los principales jugadores en la persecución del centro de datos definido por software es VMware, con 15 años de vida, fue adquirida por EMC en 2004. VMware domina en virtualización de servidores y ese dominio le permitió crecer velozmente hasta que prácticamente agotara ese segmento. En consecuencia, comenzó a expandirse más allá de su foco en servidores virtuales.

La caída de los precios y la comoditización del hardware de servidores fue propulsor de VMware. Resultaba tan barato apilar nuevos servidores para resolver problemas de rendimiento, que la administración de servidores se iba fuera de control. La capacidad de VMware para que una máquina funcione como si fuesen muchas máquinas y para que funcionen juntas en un cluster, simplificó la administración de los servidores y los convirtió en un commodity.

Hoy los servidores son sólo una parte menor de la complejidad de los centros de datos, tal como lo entiende Neela Jacques, estratega cloud para VCloud Suite de VMware. En su opinión, son un 5% del problema. El crecimiento y la complejidad que alcanzaron las redes y almacenamientos de datos, son un desafío mayor. Con cargas de procesamiento que se duplican cada tres años, las organizaciones no tienen muchas opciones. Pueden incorporar administradores y escalar, automatizar con un complicado conjunto de scripts, incorporar consultores o proveedores de servicios de administración… o pueden automatizar en base a políticas, que es el método que sigue el centro de datos definido por software.

La aparición y éxito de Amazon EC2 (Elastic Computing Cloud) sirvió, según Jacques, para inspirar nubes privadas y centros de datos virtuales. Muchas compañías prefirieron llevar su infraestructura de IT a Amazon en lugar de ocuparse ellos mismos, si bien corrían el riesgo de quedar encerrados en un proveedor cloud. El hecho de que las nuevas compañías optaran por dejar sus infraestructuras de IT en manos de terceras partes en lugar de enfrentar la complejidad por sus propios medios, representó una verdadera llamada de alerta para los proveedores de IT tradicionales.

Según Jacques, el objetivo mayor de VMware es el de simplificar la complejidad de la infraestructura y no solamente enmascararla. Para ello, vCloud Suite tiene una serie de componentes que tratan de materializar esa visión.

          vSphere: Infraestructura virtual automatizada en base a políticas

          vCloud Director: Centros de datos virtuales con multi-tenencia y extensibilidad a nubes públicas

          vCloud Connector: Visualización integrada y transferencia dinámica de cargas de tarea entre nubes privadas y públicas

          vCloud Networking and Security: Networking definido por software (SDN) con integración de seguridad y ecosistema

          vCenter Site Recovery Manager: Planeamiento automatizado de recuperación ante desastres, testeo y ejecución

          vCenter Operations Management Suite: Administración integrada y proactive de performance, capacidad y configuración para entornos cloud dinámicos.

          vFabric Application Director: Servicio multi-capa de catálogo de publicación y provisión de aplicaciones

          vCloud Automation Center: Provisión de servicios cloud auto-servicio y habilitada por políticas

Si bien este es un tema apasionante y hasta entretenido, el centro de datos virtual recién se inicia. Se estima que sólo un 5% de las Fortune 500 están en algún punto cercano al logro de virtualizar sus centros de datos por completo. Si bien Jacques reconoce que VMware ambiciona ofrecer una completa suite de automatización del centro de datos, en su opinión la competencia es bienvenida tanto de otros proveedores como de la comunidad open source. “Tratamos de que haya opciones en todo lo que podemos. La competencia y la apertura son cosas buenas,” agrega.

Entre esas cosas positivas, cita a OpenStack, ya que sus usuarios pueden necesitar a VMware luego de intentar la implementación de una infraestructura virtual de centro de datos por sus propios medios. De hecho, VMware adquirió a Nicira, una compañía cuyos ejecutivos han estado trabajando con OpenFlow y OpenStack muy activamente. VMware desarrolló extensiones para que vSphere corra en OpenStack, un proyecto open source de infraestructura cloud que configura un pool de recursos de servidores, almacenamientos y red y que tiene el respaldo de más de 200 proveedores de IT. A pesar de las presiones de los proveedores de servidores y de la propia compañía madre, EMC, en VMware se han resistido a limitar la interoperabilidad. “No esperamos que nos crean lo que decimos, sino que observen lo que hacemos,” concluye Jacques.

Citrix y la Paradoja de Jevons

En el siglo 19, el economista inglés Stanley Jevons sentó un principio que se resume diciendo que “el progreso tecnológico que incrementa la eficiencia con la que un recurso es usado, tiende a incrementar (en lugar de reducir) la tasa de consumo de ese recurso.”

Bajo la visión de Paul Shread, el autor del artículo publicado en Datamation y que aquí extractamos, en Citrix está presente esta paradoja. Citrix es otro de los tres jugadores que se posicionan en un temprano liderazgo del mercado del centro de datos definido por software. Citrix ha logrado conformar un ecosistema de centro de datos virtual que incluye a sus productos de virtualización Xen, a su plataforma de red cloud NetScaler, a proyectos open source y estándares como OpenFlow, CloudStack y OpenDaylight, además de alianzas con empresas como NetApp y otras.

Peder Ulander, VP a cargo de Open Source Solutions en Citrix, cree sin embargo que la revolución de la automatización nunca será totalmente completa. “No creo que lleguemos al punto en que el 100% de todo es abstraído y automatizado,” expresa.

Las organizaciones ya perciben grandes retornos por sus proyectos de virtualización de centros de datos. Ulander cree que los usuarios están ganando mayor control con la asistencia de los staffs de IT, con servicios de IT entregados on demand a usuarios vía portales de auto-servicio. Con Citrix vApps, por ejemplo, los usuarios pueden aprovisionar un stack LAMP (Linux, Apache, MySQL y PHP), en cuestión de minuto y no semanas. Con tecnología SDN (Software Defined Networks), los administradores se libran de tareas como la provisión de VLANs (Virtual Local Area Networks), agrega Ulander.

Bajando el concepto a tierra, Ulander comenta que clientes de Citrix como Zynga y Nokia experimentan retornos de hasta diez a uno en sus inversiones en centros de datos virtuales. “No sólo se pagan por sí mismos, sino que se impulsa la innovación y la creatividad. Las empresas que no están planeando hacer lo mismo, están tirando su dinero,” agrega Ulander.

Extrañamente, Ulander no ve al ahorro de costos como al principal beneficio de los centros de datos definidos por software y hace alusión a la paradoja de Jevons que antes describimos. Como los usuarios pueden hacer más cosas por sus propios medios y no tienen que esperar por ellas, hacen cada vez más y el volumen de utilización es mayor.

“Las verdaderas ganancias están en la agilidad del negocio. El modelo auto-servicio es hacia donde se encamina el futuro,” nos dice. “Tenemos mucho por recorrer antes de que esto se convierta en la corriente central de la demanda, pero estoy convencido de que será algo transformador. Me entusiasma ser parte de este proyecto y verlo crecer. Estamos protagonizando en el núcleo de esta innovación,” concluye.

Red Hat y su propuesta de un Centro de Datos Open Source

Como era de esperar, Red Hat aborda el tema de un centro de datos virtual por la vía open source. “Queremos tener una nube abierta e híbrida. Adherimos a todo lo que sea definido por software,” nos dice Radhesh Balarishnan, gerente general de virtualización de Red Hat.

La meta de Red Hat son las aplicaciones “apátridas” donde si una pieza del hardware en el funcionan falla, no tiene ningún impacto en el usuario final que ni se entera de la falla. Otra de las metas es la de un tejido en común para almacenamiento y networking.

En el centro del modelo de Red Hat están su hypervisor KVM, Red Hat Enterprise Virtualization, Red Hat Sotrage, ManageIQ, CloudForms y OpenStack.

Contando con cimientos de software open source en versiones estables y probadas, Red Hat se atribuye una notable ventaja de costos respecto a VMware. “Por el precio de su virtualización, se puede tener una nube,” afirma Balakrishnan, quién considera que OpenStack es un competidor directo de vCloud de VMware. “OpenStack es la plataforma de infraestructura por defecto para todo lo que va encima del tejido (fabric) en las nubes privadas.

“Cuando alguien quiere conseguir una reunión con un CIO, la mejor forma de lograrlo es diciendo que se quiere conversar sobre OpenStack,” afirma Balakrishnan. Además, estima que OpenStack estará desplegada abundantemente y en producción entre los próximos 12 y 18 meses, ya que su capa de integración está madurando muy rápidamente.

Respecto a un centro de datos virtual, los principales beneficios que Balakrishnan señala son la reducción de costos, la agilidad y la aptitud para las futuras tecnologías. “Eliminará algo de la complejidad y el costo del hardware, pero no será un cero por ciento,” agrega.

Qué implica la creación de un centro de datos virtual

La gran pregunta respecto a los centros de datos definidos por software es cómo será su entorno en el futuro ¿Desaparecerán los empleos de los administradores? ¿Podrán los usuarios arrancar servicios de IT por las suyas y sin ayuda de la gente de IT? ¿Se convertirá todo el hardware en commodity?

Posiblemente la realidad se termine posicionando en un punto intermedio. Jacques de VMware predice que cada vez se automatizarán más tareas básicas, pero que las complejas y nuevas tareas irán apareciendo y requerirán de conocimiento en IT. Como ejemplo, cita a Big Data en su carácter de nueva área emergente de alta complejidad tecnológica. Afirma que las organizaciones siempre necesitarán gente que se ocupe de mantener el hardware en estado óptimo.

Jacques afirma que la complejidad es un “blanco móvil” y se pregunta si IT se simplificará realmente. “Si, pero al mismo tiempo, otras cosas serán más complejas,” agrega. No cree que todo el hardware termine siendo “bobo” y que toda la inteligencia llegue a residir en la capa de administración del centro de datos. La inteligencia nativa del hardware posiblemente siempre tenga un papel y le toca a los proveedores de administración como VMware, Citrix y Red Hat que sea aprovechada. Siempre habrá lugar para sistemas de alto margen, como lo ha demostrado Cisco con su UCS (Unified Computing Systems).

De lo que no hay duda, es de que muchas cosas serán más simples. De la misma forma en que un sistema operativo puede enmascarar la complejidad que subyace, lo mismo ocurrirá con la nueva generación de centros de datos definidos por software. Los roles de la gente de IT cambiarán con seguridad. Los administradores seguirán siendo necesarios, pero podrían convertirse en commodities, mientras que otros roles, como los de analistas de Big Data y otros que ni vislumbramos, serán los perfiles más buscado. También puede llegar a surgir una nueva generación de proveedores de IT liderando en el camino del centro de datos definido por software.