¿En qué estado se encuentra la virtualización de storage?

13 Nov 2005 en Storage

Durante los últimos tres años se ha intensificado el debate respecto a quién tiene la mejor forma de ejecución y tecnología para virtualizar el almacenamiento de datos. Se debate si la virtualización debe hacerse a nivel de switches, desde el arreglo de discos o residiendo dentro de un dispositivo específico (también llamado appliance).
Cada proveedor tiene su postura respecto a este tema. IBM fue una de las empresas que se anticipó con el lanzamiento de su appliance SVC (SAN Volume Controller) hace dos años. Luego llegó Hitachi Data Systems (HDS) con su plataforma USP (Universal Storage Platform) TagmaStore, que sería una opción basada en el arreglo de discos. Meses atrás, Invista de EMC ganó la atención del mercado con sus soluciones basadas en el switch. El usuario corporativo se preguntará cuál es el mejor método y a quién puede creerle respecto al futuro de la virtualización de storage.
Pero la comparación no es tarea fácil, dada la naturaleza de los diferentes enfoques, tal como lo destaca Rick Villars, analista de IDC (International Data Corp). “Por el momento, podemos decir que la mayor parte de estos enfoques son mayormente teóricos. Vamos a necesitar tiempo para ver cómo se implementan en el mundo real,” destaca Villars.
A pesar del ruido que se hace, el mundo corporativo va muy lento en la implementación de tecnología de virtualización de storage. Según un estudio que la misma IDC realizó entre gerentes de IT de compañías de diversos tamaños, sólo un 8 % está realmente haciendo alguna clase de virtualización. Un promedio del 23 por ciento está planeando alguna forma de virtualización dentro de los próximos doce meses.
Uno podría suponer que en las empresas más grandes se podría estar avanzando más velozmente. Y esa suposición es cierta. Cuando hablamos de empresas con miles de empleados, la adopción real crece al 19 por ciento de los casos, con un 31 por ciento pensando en agregar algún componente virtual en el plazo de un año. En el segmento “no tan grande,” son muy pocas las empresas que están aplicando virtualización de storage, aunque un 33 por ciento mostró deseos de aplicar la tecnología durante el 2006.
Analizando el panorama corporativo encontramos que los diferentes tamaños de organización se caracterizan por su diversidad de necesidades y urgencias.
Según Villar, en las empresas de mediano porte (que serían las grandes de nuestro mercado), las prioridades estarían en la migración de datos entre plataformas y en la reducción de las complicaciones de administración. En empresas de mayor tamaño, la virtualización es deseable para funciones como la replicación de datos y la administración de volúmenes para el provisioning (proceso consistente en proveer a usuarios el acceso a datos y recursos tecnológicos. Los usuarios acceden a los recursos mediante una identidad única y sus privilegios y derechos de acceso son monitoreados centralmente).
Quiénes hacen qué
En el costado de los appliances tenemos a SVC de IBM, a StorAge, a Network Appliance y a DataCore, entre otros. En el nivel arreglo de discos-fabric (el hardware que conecta servidores y workstations a dispositivos de storage en una SAN es denominado “fabric.”) existen diversas arquitecturas ofrecidas por HDS, Sun, HP y Acopia. En el lado de los switches, tenemos a Invista de EMC, a McData, a Brocade, a QLogic y, desde hace un tiempo, también a Cisco.
Empresas como McData, Brocade o Cisco, han realizado adquisiciones o alianzas apuntando a la virtualización basada en fabrics. Al mismo tiempo, vemos que las líneas que separan a las diferentes categorías comienzan a ser borrosas. Algunos de los demás proveedores están ahora incursionando al menos en dos de los campos que hemos definido e intentan sobrepasar la rigidez de las fronteras que los dividen.
Quienes impulsan las variantes de virtualización sobre switches y arreglos de discos son los que hoy se muestran más activos con su marketing, apuntando contra la poca flexibilidad y performance de los appliances y contra los primeros motores de virtualización que salieron al mercado. “Las primeras implementaciones de virtualización de storage se apoyaban en soluciones discretas basadas en componentes o motores de procesamiento operando puertos. Así se conseguía la funcionalidad requerida. El enfoque de los appliance es considerado fácil de implantar, pero tiende a ser específico en cuanto a la aplicación,” nos dice Amar Kapadia, director de la empresa Aarohi Communications. La visión de Aarohi consiste en que la siguiente generación de virtualización de storage estará corporizada en componentes inteligentes de la SAN, tales como su propio AV150 Intelligent Storage Processor. Esta compañía tiene una alianza con McData para el desarrollo de servicios de virtualización basados en fabric.
Hitachi Data Systems (HDS), a su vez, ataca al segmento de las soluciones basadas en appliances y switches. “USP coloca virtualización en el controlador de storage y en el borde de la red de almacenamiento, en lugar de hacerlo en el host, en un switch o en un appliance en la zona central de la red,” señala James Bahn, director de software en HDS. “El lugar que elegimos es el mejor tanto en términos de performance, como de seguridad.”
Finalmente, tenemos la opinión de la gente de Network Appliance, respecto a que la virtualización de storage se realiza de mejor manera vía un appliance en la red. “Esto le da los clientes la mayor flexibilidad en la elección de sus arreglos de almacenamiento, sin encerrarlos como lo hace una solución basada en arreglos como TagmaStore y no requiere de toda la complejidad y costos de las soluciones de virtualización basadas en el host y código en la parte cliente,” nos dice Jeff Hornung, VP de la división de networking de storage en NetApp. “Un appliance puede estar en la parte central o periférica de una red.”
Qué proveedor está teniendo mayor éxito con sus propuestas
Si bien ninguno ha conseguido establecerse como firme dominador del segmento de mercado, podemos preguntarnos si al menos alguno tiene una cabecera de playa en cuanto a virtualización. Aquí es IBM el que parece haber conseguido las mayores ventas a la fecha. El fundador del Enterprise Strategy Group y destacado analista del sector, Steve Duplessie, nos informa que la venta de SVC de IBM alcanza ya a los más de 1.500 sistemas.
La ventaja de IBM, según el analista Jon Collins de la firma inglesa Quocirca, se debe a que “IBM es el mejor ubicado para aprovechar las tecnologías de virtualización si es que consigue proveer servicios coherentemente definidos y administrados a través de todo su portafolio de productos.”
Collins no puede dejar de referirse a Cisco y a su reciente adquisición de Topspin y la capacidad de vincular virtualización entre servidores, almacenamientos y redes. “Topspin es una de esas adquisiciones que pueden cambiar a una compañía. Si Cisco elige entrar a fondo en las posibles capacidades de virtualización de las que dispone, tendrán un resultado contundente,” nos dice Collins.
Pero en la opinión de Villars, Cisco está bastante lejos de la órbita en la galaxia del storage porque “la tecnología de replicación, provisioning y otras funciones centrales, están en manos de los proveedores de storage. Cisco tiene que agregar más valor si quiere ganar más terreno.”
¿Y Microsoft está fuera de este tema? Luego de un largo sueño, Microsoft comenzó a establecerse como player en el terreno del storage, aunque lo hizo muy tranquilamente y desde hace recién un par de años. Recientemente, superó algunos de sus problemas de licenciamientos que entorpecían su camino en el rumbo de la virtualización. “Microsoft está llegando tarde a la fiesta, pero posiblemente lo haga con tecnología impactante. “Microsoft pondrá virtualización como parte del sistema operativo de servidores,” nos dice Collins.
Virtualización a partir de sistemas operativos
Así como se van diluyendo las líneas divisorias entre categorías de virtualización, puede estar ocurriendo lo mismo entre la virtualización de servidores y la de storage. Como ejemplos tenemos a los dispositivos que Microsoft agregó a Windows Storage Server 2003 y a las capacidades de virtualización que NetApp incluye en su sistema operativo ONTAP OS sobre sus arreglos V-Series (antes llamados gFiler).
“El software de virtualización es cada vez más robusto e integrado. Está evolucionando en la forma de un sistema operativo por encima de todo,” nos dice Villars.
Collins coincide en que no debe existir división entre los enfoques y que debe virtualizarse en base a todos ellos, uniéndolos a través de una capa superior de virtualización. “Es más un posibilitador que una tecnología en sí misma,” agrega.
Vemos así que la virtualización podría convertirse en un elemento de los sistemas operativos distribuidos de servidores, redes y storages. La virtualización de una sola pata de esta mesa trae complicaciones. Del lado servidor, por ejemplo, algunas de las primeras soluciones trajeron problemas con direcciones de almacenamientos y otras funciones avanzadas de la administración del recurso. Para que la virtualización funcione correctamente, deben potenciarse las capacidades de servidores y storages.
En forma similar, los dispositivos de redes o switches de almacenamientos pueden emplear toda clase de técnicas de inspección inteligente de paquetes para entender la naturaleza de los datos que se transportan y decidir acerca de cómo entregarlos o almacenarlos eficientemente. Por ejemplo, la red puede saber que un determinado stream está compuesto de JPEG y que puede ser útil hacer un caché del mismo, pero no puede saber la diferencia entre la imagen de una radiografía o una foto de propaganda. De la misma manera, un pool de servidores o de almacenamientos virtual, puede no tener “sensibilidad” ante ciertos eventos. Un pool de servidores puede adjudicar procesamiento extra a una aplicación mientras que otra aplicación está inactiva, pero no puede saber la diferencia entre el procesamiento de una nómina de salarios y un ataque de denegación de servicio contra el servidor.
“Es importante considerar a la virtualización dentro de las tres áreas actuales, pero también lo es la incorporación de herramientas de administración capaces de comprender las necesidades a nivel de aplicaciones y de tomar decisiones de virtualización acordes,” nos dice Villars quien, además, cree que esa condición recién se alcanzará dentro de unos tres años.