Cuatro elementos que impactarán el centro de datos en los próximos meses

Los modelos NVMe, la computación cuántica, los sistemas en contenedores y la refrigeración líquida tendrán un papel destacado en la transformación de la infraestructura.

Data Center

La infraestructura del centro de datos está en plena fase de evolución. Si los últimos años ya se había visto impactada con fuerza por factores como la virtualización y la hiperconvergencia ahora, lejos de estancarse, seguirá transformándose hacia nuevos modelos. Hay firmas como Gartner que apuntan, incluso, a que el 'datacenter' cambiará tanto que en menos de diez años ya no existirá tal y como hoy lo conocemos

En el camino a este 'datacenter' evolucionado influirán varias herramientas y tendencias tecnológicas. La corporación japonesa Fujitsu ha destacado los seis factores que marcarán el centro de datos en los próximos doce meses. 

Non-Volatile Memory Express (NVMe) y su influencia en el servidor

Para la multinacional, este es el futuro del almacenamiento flash. Ante la tendencia creciente a la gestión de volúmenes de datos, que a su vez son cada vez mayores y generan más flujos paralelos de información, este modelo puede procesar hasta 64.000 de estos flujos de datos en la última versión de la interfaz del controlador host NVMe y el protocolo de almacenamiento, mejorando además la latencia. Frente a esto, los protocolos SATA o SAS sólo pueden gestionar una cola a la vez. Además, gracias al modelo de NVME over Fabric (NVMe-oF), el impacto potencial de NVMe en el rendimiento supondrá un impulso para servidores, fabrics, almacenamiento y gestión del sistema, lejos de restringirse a los SSDs acelerados. 

Se verá NVMe nativa en los productos de almacenamiento, combinada con unidades de estado sólido conectadas PCIe, una idea que Fujitsu espera ya incorporar junto con ETERNUS AF ALL-Flash Arrays para conseguir velocidades de transferencia de datos masivamente paralelas, anteriormente inalcanzables. 

Las cargas de trabajo del servidor se verán también influenciadas por la tecnología NVMe, contribuyendo a la próxima generación de servidores. La multinacional nipona lo explica mediante un ejemplo propio de su colaboración con Intel. Esta última compañía es la encargada del desarrollo del sistema prototipo de servidor basado en la memoria persistente Intel Optane DC, que está basado en servidores PRIMERGY y que se encuadra en el proyecto NEXTGenIO, financiado en parte con el programa Horizon 2020 de la UE. 

El modelo aplica "non-volatile memory with persistence", que, a diferencia de la DRAM tradicional, combina la velocidad de la memoria principal con la persistencia del almacenamiento convencional. Esto habilita capacidades del sistema asequibles con esta nueva clase de memoria, desplazando y manteniendo grandes cantidades de datos próximos al procesador, lo que minimiza la latencia desde el almacenamiento. Para los clientes finales, esto se traduce en la optimización de las cargas de trabajo. 

Impulso de la tecnología cuántica y su efecto en el 'machine learning'

La computación cuántica está experimentando un importante desarrollo en los últimos años. Tanto los proyectos que la emplean como, en un plazo más próximo, los que se inspiran en su modelo, tendrán un efecto importante en muchos ámbitos, como la investigación científica, los servicios financieros o su empleo en servicios públicos, como en la planificación del transporte. 

La computación cuántica también contribuirá a que otras herramientas tomen un nuevo impulso. Es el caso del aprendizaje automático, que se puede beneficiar de la aplicación de tecnologías como la de Digital Annealer, que se inspira en los modelos de informática cuántica para avanzar en la resolución de problemas y agilizar y optimizar los procesos. En el caso del 'machine learning', su empleo puede ayudar a acelerar el proceso de capacitación en el uso del aprendizaje automático, que requiere del procesamiento de gran cantidad de datos. 

Auge del enfoque basado en contenedores 

La tendencia en infraestructura TI conduce a los entornos híbridos, un desarrollo que se verá acelerado por los casos de uso basados en contenedores. En 2019 se verá un aumento en la adopción de este enfoque de microservicio, que pasa por la descomposición de una aplicación en entidades pequeñas, atómicas y encapsuladas con un alcance funcional limitado. Estos son los contenedores, que simplifican el desarrollo —facilitando enfoques DevOps— y el mantenimiento y que pueden después recomponerse dinámicamente en aplicaciones complejas y distribuirse a varias plataformas. Así se facilita el procesamiento simultáneo de múltiples tareas y la escalabilidad, además de mejorar la capacidad de respuesta y la eficiencia económica. 

Los proveedores de servicios TI como Fujitsu pueden implementar este modelo en su portfolio a través de software 'open-source', de otros entornos y 'clouds' asociadas, como Microsoft y Azure, y complementados por los productos de software de capa superior.

Refrigeración por inmersión en líquido

Ante la demanda ascendente de un mayor rendimiento de los sistemas TI, que deben funcionar a alto nivel para trabajar con herramientas como la 'IA' o el 'big data' o con GPU, sube la temperatura de operación y aumenta la necesidad de un sistema de refrigeración consistente. El paso siguiente a los sistemas de aire acondicionado será el enfriamiento eficiente basado en fluidos, como la tecnología 'Liquid Inmmersion Cooling Systems' de Fujitsu. Esto reduce la dependencia de los equipos de aire tradicionales y disminuye el consumo de energía en, aproximadamente, el 40%. Esto supone un importante ahorro económico, pero también la multiplicación de la densidad del servidor y de la potencia de cómputo.