Costo del almacenamiento: no todo es dólar-por-gigabyte

19 Oct 2010 en Storage

La mayor densidad que alcanzan los drives, las tecnologías de aceleración, sumadas a herramientas de compresión y de-duplicación, llevan a que el tradicional enfoque de costeo dólar-por-gigabyte ya no sea eficaz. Según Noemi Greyzdorf, analista de IDC, otros atributos como confiabilidad, seguridad, eficiencia, performance y administrabilidad, pueden incidir creando un costo total de propiedad muy diferente al estimado a la hora de comprar equipamiento.
En su artículo “Los costos escondidos del storage” nos sugiere tener en cuenta lo siguiente:
El costo por gigabyte (raw) es un métrica incompleta cuando se trata de aplicaciones demandantes de performance. Las tecnologías de aceleración pueden impactar en el throughput y nivel de IOPS (Input/output por segundo). Compresión y de-duplicación pueden tener similar impacto en capacidad y utilización. Su costo adicional debe verse a la luz de los beneficios que ofrecen y en las aplicaciones que están involucradas.
Las ventajas de las tecnologías de aceleración y optimización de capacidad pueden tener un costo en términos de la complejidad en la administración de los sistemas de storage. Mayor complejidad y menor administrabilidad, es una ecuación que con el tiempo lleva a costos no previstos en gente, tiempo, productividad y competitividad.
El rendimiento de los discos ha crecido enormemente en velocidad y densidad y quienes administran el storage muchas veces se ven forzados a configuraciones que desperdician capacidad para poder distribuir I/O en diferentes discos.
No todas las cargas ni aplicaciones requieren de alta performance medida en IOPS o throughput. A menudo esas aplicaciones menos demandantes son las de misión crítica en una empresa. Generalmente son las aplicaciones relacionadas con el core del negocio como transacciones Web, manufactura o analíticos del negocio. Es importante determinar qué clase de recurso necesita cada aplicación en velocidad, seguridad, disponibilidad e integridad.
Sin entrar en detalle, vemos que las empresas terminan asignando a las aplicaciones más capacidad de la que éstas necesitan. Pagan una penalidad de capacidad. La idea es pagar por lo que se quiere: si se quiere performance, no se puede basar la evaluación sólo en el costo de capacidad, por ejemplo. Los errores de enfoque llevan a mayor consumo de energía, mayor demanda de espacio, pago de licencias de software de administración en base a capacidad raw, mantenimiento, soporte y otros overheads.
La comparación del costo por TB o GB es fácil, pero lamentablemente no es válida. Las cargas del centro de datos tienen demandas dinámicas de IOPS, throughput, confiabilidad, consumo de energía, administración y escalabilidad. Según la demanda de esas aplicaciones valdrá comparar en términos de IOPS y throughput (tomando unidades de performance). Un sistema puede incluir tecnología de aceleración de performance como drives SSD con Dynamic Storage Tiering; otro es una configuración plana de drives Fibre Channel; y así. Si se requieren IOPS, el primer sistema resultará más adecuado por sus drives SSD que entregan 10K IOPS y su costo por IOPS será más bajo, aunque el sistema en general tenga un precio por TB más alto.