Cisco, una estrategia de convergencia y no de competencia en servidores

17 Mar 2009 en Servidores

De hecho, la invitación al evento de lanzamiento prometía escuchar al CEO de Cisco, John Chambers, hablando de Unified Computing y de la evolución del data center. Ya se denomine convergencia o tejido unificado (unified fabric), se trata de evitar la presencia de múltiples interconexiones de transporte, ya sean FC, SCSI, Infiniband, Ethernet u otras, para operar en una misma arquitectura que se administra centralmente. Con la plataforma de switching Nexus, presentada en septiembre de 2008, Cisco dio forma de hardware a esa idea. Tanto los datos de servidores como de almacenamientos (SAN, etc.), pueden converger en un mismo chasis facilitandola administración de la red y mejorando la eficiencia. Un aspecto clave de Nexus fue la integración de capacidades de virtualización y administración de tráfico virtual.
Respecto a los servidores blades donde corren aplicaciones y como parte de una plataforma de red, no se trata de un concepto nuevo para Cisco. AXP (Application eXtension Platform) de Cisco, presentada en 2008, es un servidor Linux ubicado en un blade, auqnue dentro de un router Cisco ISR. Ese blade dentro de un router reduce latencias y mejora la visibilidad de la red. De esa forma, aplicaciones sensibles a esa latencia, como voz, video, comunicaciones unificadas o aceleración de red, salen favorecidas. Esta buena idea no es necesariamente dirigida a desplazar a los servidores convencionales. HP ProCurve, división de networking de HP, hace lo mismo con su proyecto ONE, del que participan Avaya, Microsoft, Riverbed y otros.
Resumiendo, el servicio de aplicaciones y el networking en una misma capa o nivel para reducir latencia, está en la mente de muchos, incluyendo hasta al alicaído Nortel que pronto podría mostrar su propio nuevo hardware. Es tendencia de la industria.
Escalar aplicaciones dentro de la arquitectura de la red también tiene que ver con cloud computing. Ya que se trata de un servicio on-demand, la reducción de latencias a nivel de la nube es importante.
Andreas Antonopoulos, analista de Nemertes Research, describe a esta evolución de la siguiente forma: “Esto representa una extensión del significado del término servidor y es producto natural de la transformación que estamos viendo en los últimos cinco años en el centro de datos. Vamos hacia un entorno donde se orquesta la asignación de recursos para una aplicación casi en tiempo real y para acercarla al punto de demanda en la mayor medida posible.”
Artículo basado en el análisis de Sean Michael Kerner para Datamation.