Supercomputación: un escenario con múltiples recorridos

El empleo de superordenadores está llegando a distintas ramas de la ciencia, industrias y negocios, ampliando las posibilidades de uso y sus repercusiones en la sociedad.

poste

En la última lista Top500 de superordenadores, la clasificación que mide el rendimiento de los equipos más potentes del mundo, más de la mitad de la tabla estaba ocupada por computadoras que funcionan a más de 1 petaFLOPS. Son, en total, 272 superequipos capaces de realizar más de 1015 o mil billones de operaciones de coma flotante por segundo. El dato sorprende si se tiene en cuenta que hace apenas una década que un ordenador conseguía rebasar por primera vez esa barrera. 

La vista (y el trabajo de un gran número de personas) se fija ahora en el siguiente escalón, la computación a exascala. 1018 FLOPS, un trillón de operaciones de coma flotante por segundo. Aunque a finales de la década pasada se estimaba que los equipos con este nivel de rendimiento empezarían a operar en 2018, llegados a este año parece que habrá que esperar al menos dos o tres más. Pero… ¿qué usos reales se le da —o espera dar— a toda esta potencia informática?

Uno de los centros que tiene en marcha iniciativas para preparar la arquitectura necesaria para la computación a exascala está en nuestro país. Es el Barcelona Supercomputing Center-Centro Nacional de Supercomputación, que, entre otros muchos proyectos, trabaja en el desarrollo de aplicaciones y middleware para el funcionamiento en exaFLOPS junto con la corporación japonesa Fujitsu. Alberga, además, el superordenador MareNostrum, uno de los 13 equipos de la Red Española de Supercomputación y el primero de ellos en el Top500, donde aparece en la posición 22. 

Desde este organismo se apunta que la computación de alto rendimiento, lejos de emplearse para dos o tres fines o en unas pocas empresas, es parte de la estrategia de negocio de muchas organizaciones. Entre los sectores industriales en los que se puede ver el uso de HPC hoy en día, el BSC-CNS destaca siete: biociencias, donde se emplea para el descubrimiento de fármacos, detección y prevención de enfermedades; ingeniería asistida por ordenador, con usos para diseño mecánico y pruebas; en proceso y diseño molecular, en ingeniería química; para la creación de contenido digital, en concreto de gráficos asistidos por ordenador en los medios de comunicación; análisis de riesgos financieros en economía; diseño y verificación de componentes electrónicos en EDA; y para el modelado de la exploración de gas y petróleo en geoingeniería

Echando un vistazo a la última lista Top500 se pueden ver otros usos. En la clasificación de junio ha entrado por primera vez ABCI, el equipo de Fujitsu y el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) de Japón, llegando a la quinta posición con su rendimiento medio de 19,9 petaFLOPS. Este equipo está planificado con una tecnología en concreto como centro de sus trabajos: la inteligencia artificial. ABCI funcionará como una plataforma global de innovación abierta que permitirá un procesamiento de alta velocidad en IA. Una forma de potenciar esta herramienta y otras relacionadas, como el aprendizaje automático, y que después estas impacten en otros campos. Y ahí, el escenario de usos se dilata: la aplicación de la inteligencia artificial tiene un sinfín de posibilidades.

De 1993 a nuestros días

Volviendo al Top500, el listado cumple en este año su 25 aniversario. Las diferencias entre los equipos que encabezaban entonces la clasificación y los de 2018 dan buena cuenta de cómo ha evolucionado la tecnología y, con ella, sus usos. En 1993, los dos ordenadores en primera posición en junio y noviembre fueron el CM-5/1024 y el Numerical Wind Tunnel. El primero era parte del Laboratorio Nacional de Los Alamos, en Estados Unidos, una institución multidisciplinar del Departamento de Energía. El 1024 del nombre del superordenador se corresponde con el número de núcleos que tenía y que le permitían un rendimiento de 59,7 gigaFLOPS.

140 núcleos y una potencia de 124 gigaFLOPS eran las cifras del Numerical Wind Tunnel, un proyecto conjunto de Fujitsu y el Laboratorio Nacional Aeroespacial de Japón. Este superordenador, que se mantendría entre la primera y segunda posición entre 1993 y 1996, se empleaba en diversos usos, como el desarrollo de aeronaves y naves espaciales o simulación de turbulencias. Frente a estos, ABCI cuenta con 391.680 núcleos, que le permiten su desempeño medio de 19,9 petaFLOPS.

Estos equipos son indicativos de dos de los primeros campos en los que la supercomputación comenzó su desarrollo: la energía y el espacio. Pero los usos, como el rendimiento de las máquinas, se han ido multiplicando con los años. Se ve con otros casos concretos, como el K Computer y su sucesor, el Post-K Computer, otros de los proyectos de Fujitsu en HPC, en este caso con el Instituto RIKEN de Japón.

El K Computer registraba en 2011 un récord: superar los 10 petaFLOPS de rendimiento, colocándose a la cabeza del Top500. Este equipo se emplea en la investigación de fármacos, el estudio de catástrofes naturales como terremotos o tsunamis, la previsión del tiempo, la ciencia espacial o la fabricación y desarrollo de materiales. Su heredero amplía su vocación de centrarse en temas científicos y sociales, especializándose en temas tan diversos como el desarrollo de energía verde y, en general, el uso eficiente de los recursos energéticos; el apoyo a la medicina individualizada y preventiva; o la investigación de los mecanismos del circuito neuronal. 

El paso de gigaFLOPS a teraFLOPS y de estos a petaFLOPS ha ido ampliando el horizonte de usos de la supercomputación, y la investigación hacia los exaFLOPS permite que asomen aún nuevas posibilidades en este paisaje. 



Whitepapers

Virtualización

Soluciones de teletrabajo para pymes

El mundo que conocemos ha cambiado debido a la pandemia de COVID-19. Ahora que muchos empleados trabajan desde cualquier lugar, Fujitsu y Quopiam se unen para ayudar a las pymes a implementar soluciones de t...

Big data

Tecnología para detectar síntomas de COVID-19

Detectar anomalías febriles es clave para que las empresas y los organismos públicos garanticen espacios seguros y cumplan el protocolo de obligado cumplimiento en la pandemia. Existe tecnología que facilita...

Hiperconvergencia

Guía de la nube híbrida

La nube se está convirtiendo en una tecnología esencial para el trabajo en TI, gracias a las posibilidades que ofrecen tanto a nivel de gestión como en economía y potenciales integraciones con otras herramientas, como big data, machine learning o IoT. Pero no siempre es posible realizar un paso completo a las plataformas cloud. Por eso, en los últimos tiempos se está consolidando una aceptación de los modelos híbridos, que combinan parte de la infraestructura en la nube y parte, generalmente ya existente, en entornos on-premise. Este documento profundiza en el estado y potencialidades de la TI híbrida.

Hiperconvergencia

Especificaciones de Nutanix Enterprise Cloud en PRIMERGY

Simplificación en la configuración y la infraestructura, acceso a entornos multicloud, buen rendimiento y potencia y escalabilidad son algunas de las ventajas que caracterizan a la solución Nutanix Enterpris...