EMC en la Era Cloud y Centros de Datos Definidos por Software

Datamation entrevistó a Angel Camacho, ATC/ Applications Technical Consultant de EMC, quién nos explicó la evolución de su compañía hacia los nuevos escenarios de Cloud, Software Defined Data Center, Software Defined Storage y mucho más.

El inicio y la transformación

EMC se inicia, aunque cueste hoy creerlo, como revendedor o distribuidor de muebles de oficina. Fue fundada por el ingeniero Richard Egan y su colega Roger Marino, en 1979, se vio circunstancialmente involucrada en la importación de memorias por pedido de una firma que necesitaba aprovechar sus habilidades de importación y les pidió ayuda para traer componentes de memoria para mainframes.

En ese momento la gente de EMC descubrió que la electrónica era un campo de alta rentabilidad y, luego de un período en el que actuó como distribuidor, comenzó a fabricar sus propios dispositivos de memoria. Entre sus primeros clientes estuvieron Prime Computer, Apollo, Data General, Digital Equipment, Sun y Wang. En pocos años, se convirtió en proveedor de sistemas de almacenamiento aptos para funcionar con equipos de otros fabricantes.

En 1986 EMC pasó a ser una empresa pública y en 1999 y, en 2001, tras la salida de Egan, Joe Tucci se hizo cargo de la conducción y permanece hasta hoy.

La nueva EMC

EMC está funcionando como si fuera una holding Company, nos dice Camacho, o sea una compañía que tiene a otras a su alrededor pero sin que formen parte de ella. Cada una es un negocio independiente. Tenemos así tres compañías: una es EMC2 que es la de infraestructura de información, la que se dedica a vender el almacenamiento, el hardware, los discos y todo lo que es elementos físicos de infraestructura. Luego tenemos a VMware, la compañía que se dedica a proveer toda la virtualización y todo lo que es Software Defined Servers, Software Defined Computing, Software Defined Networking o dicho de otra manera, todo lo que es Software Defined Data Center en general. La tercer compañía es Pivotal, de la que forma parte otra adquisición anterior, la de Greenplum. Greenplum es una compañía que compró EMC hace cuatro años y que desarrolla bases de datos para procesamiento paralelo masivo y compite en el terreno de Warehouses de Datos y Business Intelligence. Todo este software se le dio a Pivotal, que es ahora una compañía independiente. Por otra parte, VMware también desarrolla a Cloud Foundry Open Source y se lo entrega a Pivotal, donde también se trabaja con Hadoop, Mongo DB, Cloud Foundry y otras tecnologías de Open Source.

Entonces, como lo percibirán ustedes, lo que EMC está haciendo es construir un stack (una pila de capas de funciones) pero lo hace mediante compañías que son independientes. Lo bueno de esto es que nosotros podemos ofrecer una solución que va desde el hardware, negocio básico de EMC2, hasta una solución de cloud computing, de Business Analytics por parte de Pivotal y, obviamente, todo virtualizado con tecnología VMware. Pero también somos parte del OpenStack Foundation.

 

En la era de lo definido por software

Como habrán notado, prosigue Camacho, ahora la conversación es sobre software. Ya no es sobre hardware y todo está relacionado con el software. En mi caso particular, cuando presento ante clientes o participo de una conferencia, de lo que hablamos es de la forma en que se está transformando el negocio. Pero lo hacemos desde el punto de vista del cliente, del usuario.

Si nosotros podemos ver las tres etapas o fases de la historia de la computación, tenemos que la primer fase era la del mainframe, donde el centro de datos era muy congregado o centralizado. Luego viene una revolución con cliente/servidor a la que llamamos la segunda generación de computación que todavía estamos utilizando en el presente y de la que en EMC no decimos que va a terminarse. Creemos que esa segunda generación estará aquí por veinte o treinta años más. Es el modelo que usamos hoy en día cuando nos conectamos con una aplicación del data center desde una laptop, por ejemplo.

Lo que hoy estamos viendo es que masivamente estamos yendo hacia lo que se conoce como tercera generación de computación. Nuestros clientes, proveedores y socios de negocio están volviéndose hacia la nube, hacia la escalabilidad masiva basada en el concepto de movilidad, de BYOD (Bring Your Own Device), de tablets, smartphones y donde nadie tiene ahora una sola computadora. Por ejemplo, yo me conecto a través de cuatro diferentes dispositivos con mi correo electrónico. Tengo un teléfono, una Tablet y dos laptops. Los utilizo en diferentes momentos aunque a veces utilizo los cuatro en un mismo día. Estamos viendo que hay una explosión de acceso a los medios de computación desde cualquier parte del mundo. Esto no es nuevo, es algo que lleva años de avance. Yo ya lo utilizaba cuando trabajaba en Sun Microsystems y luego en Oracle ocurría lo mismo. Ahora en todo el mundo, en todas partes, está ocurriendo lo mismo.

A lo que voy es a que estamos viviendo una tercera era en la computación en base a los sistemas móviles; en base al concepto de cloud y en base a la necesidad de un nuevo sistema de seguridad.

Las nuevas necesidades

Desde el punto de vista de la administración, el problema fundamental que acarrea lo anterior es el manejo de la infraestructura. Como verán, en esta conversación hemos realizado un recorrido muy grande… y ahora estamos de nuevo hablando de infraestructura! Y es que el software tiene que correr en algún lado. Estamos frente a un nuevo escenario de oportunidades: la gente se está moviendo hacia la nube, hay nuevos sistemas, nuevos lenguajes de programación. Ya nadie habla de C y C++. Se habla de Python, de Perl, de Ruby y también Java, que está teniendo nueva vida gracias a nuevas formas de Java Script, etc.

Entonces, el problema se centra ahora en cómo administrar ese Software Defined Data Center (SDDC). En el centro de datos definido por software el problema está en cómo vamos a administrar nuestros recursos y nuestras aplicaciones para tener alta disponibilidad y escalabilidad en el momento necesario y, sobre todo, seguridad. En los últimos tiempos los hackers han atacado a demasiados lugares y ese tema debe estar en el sitio central de la conversación.

ViPR, la herramienta SDS de EMC

Y aquí entonces podemos hablar de ViPR ¿Qué es ViPR? Es precisamente nuestra plataforma para SDS (Software Defined Storage). Por ejemplo, en el pasado si yo compraba un equipo EMC Symmetrix VMAX, lo tenía que conectar a la SAN (Storage Area Network) por medio de Fiber Channel, necesitaba una persona especializada para controlar el VMAX para poder saber cómo particionarlo, cómo asignar recursos, cómo darle seguridad y cómo compartirlo hacia los servidores. Todo eso tomaba varios días o semanas, dependiendo de las prácticas internas de la empresa en la que se esté trabajando. Pero de la misma forma, necesitaba tener servidores disponibles para hacer el acceso a ese arreglo en la SAN. VMware ya tenía los mecanismos para manipular esos servidores, crear máquinas virtuales y así realizar el despliegue de servidores en forma más sencilla.

Pasemos entonces a aplicar ese mismo concepto al almacenamiento. Lo que estamos haciendo con ViPR es crear una capa de administración donde yo puedo definir si hay conexión con un VMAX, VNX o bien a un dispositivo de otro proveedor, como un Hitachi, a un NetApp o incluso a cajas sin marca. ViPR conoce toda la infraestructura de almacenamiento.

Dentro de ViPR yo puedo crear niveles de operación. Por ejemplo, puedo definir que un nivel Gold se componga de VMAX con Flash; que mi nivel Silver sea VMAX de Fiber Channel y VNX, mientras que el nivel Bronce sea Hitachi con el almacenamiento commodity.

Así, ViPR ya sabrá cuáles son los niveles de almacenamiento y se le pueden asignar niveles de disponibilidad. Por ejemplo, el nivel Gold necesita 99,999% de disponibilidad. De esa manera, ViPR sabe que tiene que implementar réplicas y, como conoce el almacenamiento, es un trabajo repetitivo que ya sabe hacer. No hace falta un ingeniero que lo esté habilitando. Sencillamente, el ingeniero establece las reglas y ViPR conecta los puntos entre los arreglos.

El valor agregado de ViPR es que, ya estando los arreglos conectados a las redes de alguna forma, ViPR toma conocimiento de cuáles son los nodos o los switches que están conectados en la SAN o la NAS (Network Attached Storage). Luego, el administrador le informa que su siguiente proyecto necesita conectar una base de datos Oracle, por ejemplo y necesito 5TB de almacenamiento Gold. Así, ViPR toca toda la conectividad que está dentro del servidor y el almacenamiento; genera los vínculos necesarios; entrega el almacenamiento hacia el servidor y eso puede ser al sistema operativo nativo, a VMware o a OpenStack. Luego se retira para que su footprint no genere sobrecarga con otra capa más de integración. De esa manera, es como si el administrador hubiera configurado una conexión con VMware hacia VMAX, por ejemplo y la hubiera manipulado. Pero en este caso, fue ViPR el que hizo automáticamente todo el trabajo. Tiene las reglas, conoce el almacenamiento, conoce el fabric de la red; configura todo de acuerdo a las políticas que se le han definido y luego se retira.

Respecto a la interoperabilidad cuando existen Fabric Directors de diferentes proveedores y que operan con esquemas propietarios, ViPR tiene una parte “extensible.” Se puede escribir código para ViPR para que se conecte con otros sistemas de administración. Por ejemplo, EMC tiene un cliente muy grande en los EE.UU y éste realiza toda su administración de sistemas con software desarrollado internamente. A ellos les llamó la atención que ViPR se pudiese conectar tanto con equipos EMC como de otras marcas. Decidieron adoptar a ViPR y generaron una API (Application Programming Interface) para que se pudiera conectar con su propio sistema de administración y le de alimentación de cómo están trabajando sus sistemas. ViPR es un sistema totalmente extensible.

ViPR en la orquestación de recursos

Por otra parte, si una empresa no cuenta con ningún sistema de orquestación de sistemas, no hay problema. ViPR puede asumir ese rol. ViPR se compone de dos módulos de software.

Uno es ViPR Global Data Services y es el que se encarga de manipular Hadoop File System, almacenamiento de objetos, archivos y almacenamiento en bloques; todo lo relacionado con el almacenamiento en sí mismo.

El otro módulo es ViPR Controller. Este módulo se encarga del provisioning (aprovisionamiento), de las funciones de autoservicio, toda la automatización y la generación de reportes. Los reportes incluyen lo relativo a la administración del I/O y también el manejo de las políticas de uso como las que antes mencioné, Gold, Silver y Bronze.

Otra gran ventaja que están encontrando nuestros clientes con ViPR es que podemos utilizar hardware commodity. Por ejemplo, si se compra un servidor y se le instala un sistema operativo para utilizarlo como servidor iSCSI, NAS o File Server, también se lo puede controlar desde ViPR. Y la gran ventaja es que, utilizando otro software que EMC adquirió y se llama Skill I/O, es posible acceder al almacenamiento local de los servidores y hacerlos aparecer como parte de una red. Esto quiere decir que, si tengo un servidor con un par de discos que almacenan una base de datos y necesito que tengan disponibilidad, replicación y todos los beneficios de una SAN, Skill I/O conectará este servidor con la SAN y podrá utilizar cualquier replicación, snap shot que esté disponible dentro de la SAN.

Así, con ViPR y Skill I/O, yo puedo hacer que todo el almacenamiento en el centro de datos, ya sea bloque, archivo (SAN o NAS); o almacenamiento local, forme todo parte de la suma de recursos y sean controlados desde una misma interfaz.

La Asociación con Cisco Systems

¿Cómo impacta la alianza con Cisco en el negocio de EMC? En el primer trimestre de 2014, Cisco fue el único proveedor de servidores que mostró crecimiento en sus ingresos respecto al año anterior ¿Tuvo que ver con los avances de EMC en su alianza Vblock? Camacho nos habla de esta situación:

Con Cisco estamos teniendo un éxito conjunto. Esto se debe a varias razones. No conozco mucho lo que está pasando en Sudamérica, pero aquí en los EE.UU está ocurriendo que la gente de IT no confía mucho en Oracle. Muchos están tratando de salirse del ecosistema que Oracle heredó de Sun Microsystems y también de la base de datos por sus prácticas de licenciamiento un tanto agresivas. Así es que el mercado comienza a buscar opciones. Desafortunadamente Dell está pasando por un momento amargo con poco desarrollo; HP se muestra una empresa confundida donde no se ve bien qué clase de compañía quiere ser, si de impresoras, de nube, de dispositivos para medicina, no aparece claro. IBM tampoco había tenido algo nuevo que la posicionara en el mercado y la gente se acerca a Cisco partiendo del dominio que tiene en redes y donde los servidores aparecen como una extensión natural.

Entre EMC y Cisco surgió una atracción mutua porque EMC buscaba un socio para competir con Oracle, que también vende hardware de almacenamiento. Los partners tradicionales de EMC, como fueron HP y Dell no estaban funcionando y Cisco llegó como una forma interesante de colaboración.

El nacimiento de Vblock y su orientación al cliente

Respecto a Vblock, quiero aclarar que fue un concepto que no se formuló en el alto nivel de las empresas. Fue un proyecto que inician dos ingenieros preparando una prueba de concepto sobre cómo lograr la configuración y administración de servidores con el almacenamiento. El objetivo era poder hacer eso lo más rápido posible para una campaña de “go to market” y competir frente a Exadata y otros sistemas preintegrados que tenía Oracle. Estos dos ingenieros de EMC tenían a mano un rack con un par de servidores blade de Cisco y comenzaron a trabajar. Encontraron algunos problemas y por medio de gente conocida se relacionaron con un ingeniero de Cisco y, entre las dos partes, pusieron la solución en acción. En ese momento la gerencia se dio cuenta del valor y que no hacía falta “reinventar el hilo negro.” De aquí surge la alianza, de la inquietud de esos ingenieros que decidieron hacer algo para el cliente.

Lo que me gusta mucho de esta asociación es que fue orgánica. No fue forzada, con los presidentes de las compañías tratando de imponer algo. Fue la necesidad del cliente la que nos obligó a formar esta alianza que va a tener éxito porque es lo que los clientes piden. Es un paso en la dirección correcta.

Las arquitecturas de referencia

Pero esta alianza no se limita a Vblock y a la compañía formada en sociedad y que se llama VCE (por VMware, Cisco, EMC), en la que además también invirtió Intel. EMC ha seguido trabajando con Cisco para crear arquitecturas de referencia o blueprints. El progama se llama Vspexs por Virtual Specifications.

Vspexs es un programa muy interesante porque no se puede construir un Vblock para cada solución o carga de trabajo. Por eso lo que hacemos es tener un grupo en Santa Clara, California, que trabaja a pocas cuadras de donde está la gente de Cisco y trabajan juntos probando arquitecturas. Por ejemplo, si se tiene un servidor Exchange, no podemos vender un Vblock con Exchange porque sería logísticamente complejo. Pero en cambio, sí hemos probado los UCS Blades (UCS por Unified Computing System) con el almacenamiento Vmax de EMC y para lo que se ha creado una arquitectura de referencia.

Esa arquitectura se la doy al socio de negocios, que es un revendedor de EMC y/o de Cisco. La arquitectura incluye la lista de materiales y todo lo que hay que hacer en cuanto a configuración. En pocos días se lo entregan al cliente ya configurado y listo para usar.

El futuro EMC/Cisco

Cisco ha sido muy positivo en su apoyo hacia EMC, prosigue diciendo Camacho, y por eso seguimos trabajando en forma muy cercana.

Otra forma en la que estamos colaborando, además de lo anterior, es en nuestro acercamiento hacia la computación móvil. En EMC vemos que la siguiente generación será acerca de mobile. No se si esto será en cinco, diez o quince años, pero es hacia allá hacia dónde vamos.

En Cisco tienen la misma visión y por eso trabajamos juntos en co-ingeniería tratando de obtener resultados rápidos. Eso es lo que le importa al cliente actualmente. Como todo es en función de conectores o APIs, es muy fácil conectar elementos. Si no ofrecemos esto antes que nadie, los clientes irán a buscar con otros proveedores.

EMC-Cisco Systems ¿Sociedad perdurable?

Le preguntamos a Angel Camacho qué ciclo de vida prevén en la alianza con Cisco. Esto ya nos lo hemos preguntado en el caso de Dell, por ejemplo. Hace diez años Dell y EMC estaban tomados de la mano. Luego Dell comenzó a adquirir compañías de almacenamiento y comenzó a tener problemas la calidad de la alianza y finalmente la relación se acabó.

Es natural que haya ciclos en las alianzas. Pero en este caso hay elementos que destacar. En primer lugar, EMC es una compañía que ha sido inteligente en el manejo de sus relaciones con sus aliados. No es una empresa donde gustan los escándalos en lo que tiene que ver con alianzas. Todo el grupo que se maneja en la alianza con Cisco mantiene un contacto constante con el Gerente de Alianzas, que en este caso es una persona muy experimentada.

Más allá de los temas políticos, tenemos que Cisco está librando una batalla con IBM y que también tiene que seguir creciendo en el mercado. Cisco adquirió a la compañía de almacenamiento in-memory Whiptail el año pasado y eventualmente puede adquirir a una compañía de almacenamiento primario para seguir creciendo. Si compra una compañía que compite directamente con EMC, será el momento de reevaluar el estado de la alianza.

En este momento tenemos elementos para confiar en que será una relación duradera. En primer lugar, tenemos a un hijo en común que es VCE, la compañía que hace a Vblock.

En segundo lugar, entre la plataforma de crecimiento de Cisco y la de EMC se puede hacer una correlación directa respecto a territorios . En tercer lugar, tenemos que, mientras que Cisco siga dominando en las redes y reciba ataques en sus servidores blade, necesita a un socio de infraestructura en el cual apoyarse para seguir ganando nuevos ingresos.

Eso es en base al negocio. Si vemos el lado tecnológico, ya estamos compitiendo en algunos aspectos. Posiblemente ViPR los ponga un poco nerviosos por su capacidad de definición por software, pero si ellos necesitan mayor penetración en el mercado para sus líneas de productos, es precisamente por la interacción con SAN y NAS que actualmente tenemos. El hecho de que juntos hayamos creado Vblock reivindica en mucho a la tecnología, ya que con una sola interfaz se pueden controlar los tres elementos: cómputos, red y almacenamiento.

Un modelo a seguir

Todo esto nos hace pensar que tenemos alianza para muchos años. Incluso hay observadores que piensan que este es el nuevo modelo de trabajo a seguir para las compañías en el futuro.

Esta tendencia ya se ve en el mundo de las comunicaciones. AT&T, por ejemplo, antes hacía sus propios conmutadores y revendía sus propios teléfonos y ponía todo lo necesario. Hoy en día, AT&T administra teléfonos que vienen de una marca, accesorios que vienen de otra y lo mismo con conmutadores y otros elementos. Es una compañía que podríamos decir que se dedica a virtualizar lo que hace cincuenta años eran sus conmutadores.

Creo que HP, IBM y otras empresas harán algo parecido con proveedores como NetApp, por ejemplo.

EMC y su alcance en la propuesta Cloud

Le pedimos a Angel Camacho que se refiera al rol de EMC como proveedor de tecnología para ambientes cloud.

Como parte del hablar de esta federación de compañías, el siguiente paso es hablar de nuestras alianzas estratégicas. Como dije antes, una parte de la federación de compañías de EMC es Pivotal. Ellos se dedican a todo lo que es nube ya sea con Cloud Foundry como con OpenStack y otras tecnologías afines.

Pero EMC también tiene alianzas con otro tipo de compañía, como Canopy, que es el socio de Atos en los Estados Unidos y que también opera en Europa. Ellos ofrecen sistemas de cómputo en la nube, tanto IaaS (Infrastructure as a Service), como PaaS (Platform as a Service) o SaaS (Software as a Service). Canopy ofrece todo lo que sea “as a service,” como bases de datos, backup, etc. Si hay clientes que buscan soluciones de nube privada o pública, los podemos referir a Canopy, que es uno de los cinco socios que tenemos en Estados Unidos.

Canopy utiliza infraestructura de EMC. Utiliza a Pivotal y a todo nuestro hardware. Esta es en mi opinión otra genialidad de nuestro presidente, Joe Tucci. Si un proveedor no tiene negocio porque el cliente quiere ir a la nube, pero logra que la nube que escoja el cliente sea uno de los socios de EMC, es como si EMC hubiera vendido el almacenamiento. No existe el conflicto de interés ni la fricción de tratar de evitar que el cliente se vaya a la nube porque se pierde el negocio. El vendor se convierte en un socio estratégico del cliente. Si quiere tener su propio centro de datos, le vende el hardware, pero si quiere ir a la nube privada, lo conectamos con Pivotal. Si quiere ir a la nube pública, lo conectamos con Canopy.

No tenemos el conflicto de intereses que algunos compañías tuvieron incluso internamente. En IBM llegaba el vendedor de AS/400, el de RS/6000, el de Power, el de X86 y todos peleaban el negocio entre sí. Nosotros generamos una colaboración para el cliente.

Antes mencioné a Canopy, pero también tenemos a Terremark, a CSC y pronto tendremos a algunas nuevas en Sudamérica, a las que no puedo mencionar todavía. Vamos a alentar todas las variantes, ya que ni todos los clientes irán a la nube, ni todos se quedarán en el centro de datos privado. Es por eso que es tan interesante la estrategia de VMware, de conectar al centro de datos en forma de nube privada, pero conectando con la nube pública en caso de necesidad. Eso nos permite crecer y luego volver al tamaño original y le llamamos cómputo elástico por esa razón.

Atmos, almacenamiento y servicios para la nube

Cuando le pedimos un comentario sobre Atmos, Camacho nos dice que “es una tecnología subvaluada.” Se puede tener a Atmos como una máquina virtual o bien como appliance. Atmos nos da un nuevo alcance hacia diferentes sistemas de almacenamiento, donde el almacenamiento es el objeto. Esto nos facilita mucho el trabajo especialmente en ambientes multimedia o con datos no estructurados. Nos permite una gran flexibilidad y escalabilidad mientras que automatizamos el proceso en el que hacemos el almacenamiento en la nube. Dar escalabilidad y acceso a la información no estructurada es uno de los grandes problemas que existen al presente. Hay muchísima información que está en documentos como Word, PDFs, etc. Este es uno de los sistemas que nos ayudará. El Storage as a Service tiene que ser agnóstico respecto a la clase de archivos. No tiene que importar si es estructurado o no, si es una base de datos, etc. Es así cómo debe ser el Storage as a Service.

EMC y Big Data

Todo lo que es Hadoop lo maneja Pivotal porque es tecnología open source. Ellos se están especializando en lo que es Big Data y Fast Data. Se habla mucho de Big Data, pero ¿Qué tan grande es lo grande? Para alguien Big Data puede ser un Petabyte de información si estoy en una compañía de teléfonos que quiere entender cómo la gente habla entre sí. Pero pueden ser unos cuantos Gigabytes de información si quiero ver la forma en que la gente compra sus entradas de cine.

Pivotal está creando una estrategia que denominamos Data Lake. Es encontrar la forma en que agregamos los datos en un solo lago de información y luego en cómo los extraemos. Lo interesante de Hadoop es que se pueden particionar las fuentes de datos, poner un conunto de esos datos en un almacenamiento tipo Flash, por ejemplo, y así tenemos Fast Data. Puede ser que se tengan muchísimos datos, pero si no se les extrae información, no sirven. Es preferible tener datos rápidos y ágiles, útiles, que muchos datos.

EMC no tenía los recursos para poder hacer todo eso nosotros mismos. Por eso lo dejamos en mano de la gente que trabaja con código abierto y también con Greenplum, que es el software analítico que ahora maneja Pivotal. Los que manejan la especialidad lo pueden hacer mejor que nosotros.

Respecto a Hadoop, en EMC nos enfocamos en el cómo lo administramos y manejamos en el almacenamiento y en ofrecer alta velocidad para procesar los datos.

Tenemos también soluciones como la tecnología Data Domain, que es para hacer respaldo de datos. Nuestra actividad Nro 1 es el respaldo a bases de datos Oracle y el Nro 2 es el respaldo a un sistema de warehousing de datos de Oracle, Exadata, que originalmente fue diseñado para data warehousing aunque ahora digan que es para todo tipo de prestación. También manejamos almacenamientos para Teradata y sistemas similares.