Storage y Bases de Datos: No todo será in-memory

En el mercado existe una especie de creencia generalizada en la que se entiende que el costo de todos los tipos de almacenamiento de datos está bajando. En base a esta creencia, han proliferado las plataformas de datos basadas en la operación in-memory con Flash o DRAM. Pero aunque el conjunto de tecnologías parece comportarse uniformemente, eso no es así siempre.

Por ejemplo, los precios de las memorias DRAM, que en un momento comenzaron a bajar bastante, ahora dejaron de hacerlo, mientras que por otra parte, los adelantos en cuanto a drives Flash SSD han golpeado al mercado de los discos convencionales de alta velocidad. Todo esto impacta la forma en que se despliegan las plataformas de datos y se diseñan las aplicaciones. Si bien firmas investigadoras como Ovum estiman que los discos duros seguirán siendo la base de los entornos como clusters de datos analíticos de Big Data, SSD Flash comenzará a reemplazar a esos discos duros en aplicaciones como sistemas OLTP (On Line Transaction Processing) en el período 2015-16. Además, la misma firma consultora estima que la marcha hacia las bases de datos in-memory será reemplazada por un mayor énfasis en el uso de varios niveles de datos (data tiering) con la utilización de DRAM junto con discos Flash o hard.

Un panorama más variado

La infraestructura de IT ha ido acompañando a los principios de la ley de Moore con un foco que siempre gira alrededor de precio/rendimiento. Pero a medida que se asciende en esa curva de precio/rendimiento, doblar esa relación se hace cada vez más difícil debido a las dinámicas de la tecnología y del mercado. Existen adelantos que cambian incluso la variable de comparación que se utiliza para medir los incrementos, como ocurre con la tecnología de CPUs, donde se pasó de medir la velocidad de reloj a la utilización de múltiples núcelos (multi-core) y gracias a los avances en termodinámica.

Tony Baer, analista especializado de Ovum, cree que en los medios de almacenamiento ocurre un fenómeno similar. Hasta el momento, era dado por hecho que los hard drives crecerían y serían tan económicos que los clusters de muchos petabytes como Hadoop serían posibles. También se asume que las curvas de precio/rendimiento y confiabilidad de los SSD Flash los están llevando de los sistemas embebidos para ponerlos en todos los centros de datos y que los precios de DRAM declinan a un punto en el que es posible utilizarlos en forma persistente y no sólo en caché temporario.

Y así continuará sin duda la historia con la relación precio/rendimiento, pero sin embargo también aparecen detalles que cambiarán el diseño de las plataformas y las decisiones respecto a despliegue de datos en los sistemas que los procesan intensivamente. Por ejemplo, las mismas curvas precio/rendimiento que permitieron que las bases de datos in-memory se expandan más allá del nicho de las aplicaciones especializadas para llegar a un mercado más amplio de analíticos y transacciones procesadas en Internet, están causando un aumento de la demanda al mismo tiempo que la base de proveedores de DRAM se consolida. Micron Technology acaba de completar la compra de la firma Elpida y así la industria tiene sólo tres grandes proveedores. Como resultado y luego de décadas de caída, los precios de las memorias han dejado de caer hace unos seis meses. Según varios observadores de la industria del almacenamiento, es de esperarse que algo similar ocurra en la baja de precios de los drives Flash SSD para llegar a un punto en que se tornen atractivos para los sistemas OLTP de las empresas y se dispare su demanda. Las caídas en los precios de SSD Flash han impactado en el mercado de discos duros con velocidades de 7200 RPM y la diferencia en performance hace que cada vez se refresque menos esa tecnología.

No cabe así duda de que estas tendencias forzarán a los proveedores de plataformas de datos y a los clientes empresariales a que revisen sus creencias respecto a diseño y despliegue de datos.

Las bases de datos puramente in-memory, no.

Varias empresas importantes como SAP, por ejemplo, han establecido sus diseños de plataforma de datos alrededor de arquitecturas de bases de datos in-memory. Las empresas analistas del mercado opinan que diversos factores, incluyendo a variaciones en precios en el corto plazo y a la materialización de mejores prácticas en el despliegue de datos, serán factores que conducirán a un sutil giro hacia un almacenamiento basado en niveles (Tiering) donde otras formas de almacenamiento, incluyendo a la de los discos duros y/o SSD Flash, serán parte de las configuraciones.

Mientras que SAP y otros como Kognitio enfatizan en las arquitecturas in-memory para sus plataformas de datos, en realidad sus sistemas pueden manejar datos desde discos. Y eso está más cerca de lo que proponen otros proveedores como IBM, Oracle y Teradata con sus esquemas en niveles. Esos proveedores, o bien se abstuvieron de ofrecer plataformas puramente in-memory o, como en el caso de Oracle, lo hicieron sólo para aplicaciones especializadas como TimesTen o Exalytics. De la misma forma, empresas nuevas como MemSQL, cuyas plataformas fueron diseñadas para alta concurrencia y entornos de alto tráfico como los de transacciones Internet, ven a sus arquitecturas in-memory como suplementos y no reemplazos de los discos.

La mayoría de los observadores, incluyendo a Ovum, creen que son muy pocas las aplicaciones analíticas o transaccionales que demandan que todos los datos residentes se ubiquen en memoria. El total de las consultas o transacciones procesadas totalmente en memoria, pero solamente para los datos que son accedidos, serían la clave en las soluciones de visualización rápida de BI de proveedores como SAP (Lumira), QlikTech, Tableau y otros jugadores del ambiente SQL, además de Platfora con Hadoop. En Ovum opinan que el valor del procesamiento in-memory no será simplemente el de la velocidad, sino el de la capacidad de procesar nuevas formas de aplicaciones o ampliar escenarios analíticos. Entre los ejemplos que brinda Ovum tenemos:

$1·         Innovadoras aplicaciones transaccionales que embeben analíticos y escenarios de evaluación “what if” que deben ser logrados rápidamente.

$1·         Analíticos más complejos que los que serían posibles con sistemas basados en discos.

$1·         Analíticos con una frecuencia mayor a la que sería posible con discos.

Si bien in-memory es una perspectiva seductora, las consultoras como Ovum esperan que la mayoría de las plataformas de datos, tanto analíticas como transaccionales, se volcarán más hacia los esquemas en niveles que a las arquitecturas completamente in-memory.

Los discos seguirán teniendo una función

Tal como lo dice Tony Baer, autor del reporte de la consultora Ovum, a pesar de las tendencias de precio/rendimiento de los SSD Flash, esos drives no escalan a la capacidad de los discos duros. Es por esa razón que los discos duros seguirán siendo la fuerza de trabajo básica en analíticos de grandes volúmenes de datos, donde los analíticos más complejos y de mayor performance son ejecutados en un nivel de media más veloz como DRAM. Los discos duros seguirán siendo usados también para reportes rutinarios, de cierre de períodos o de aplicaciones similares de moderado valor agregado y que no requieren de velocidad y complejidad extremas.

Este artículo se bsaa en un resumen de lo presentado por el analista de Ovum Tony Baer, autor de “Storage Tiering is the New Black for Databases.”