A la supercomputación, a través del aprendizaje profundo

Con su procesador Deep Learning Unit, Fujitsu abre un nuevo camino a través del que exprimir todo el valor de los grandes volúmenes de datos.

inteligencia artificial

Supercomputación, computación de alto rendimiento o HPC, computación cuántica; inteligencia artificial, machine learning, redes neuronales… Todas estas posibilidades conforman una red que se entrecruza y dibuja un rico cuadro de la informática del futuro. Una pintura de los próximos años en la que se combinan capacidades de procesamiento ingentes, operaciones ágiles que antes hubieran llevado meses, el tratamiento de cantidades de información antes inabarcable. Lejos de ser un camino de una única vía, hay distintas opciones a través de las que las compañías están acercándose a este escenario. Una de las contribuciones de Fujitsu es su procesador Deep Learning Unit. Diseñado con base a técnicas empleadas en el desarrollo del K Computer, el chip está pensado para el trabajo con técnicas de aprendizaje profundo y preparado para gestionar redes neuronales a gran escala.

 

Deep learning, una tecnología en auge

La inteligencia artificial poco a poco se volverá pervasiva. Va a estar involucrada en nuestras vidas hasta sin saberlo”. Así prevé Adriano Galano, Head of Solution Sales de Fujitsu España, que la tecnología irá evolucionando, hasta tomar un papel central. Una apreciación con sólidos fundamentos: la World Intellectual Property Organization ha analizado recientemente más de 340.000 patentes y 1,6 millones de publicaciones científicas de las últimas siete décadas sobre IA, con la conclusión de que su desarrollo se ha acelerado de forma significativa en los últimos años. Y aunque la técnica que concentra más de estos documentos es el machine learning, la distinción de ser la que más rápidamente ha crecido le corresponde al deep learning. 

El aprendizaje profundo ha visto crecer el número de patentes registradas a un ritmo anual medio del 175% entre 2013 y 2016, último año que contempla la investigación de la WIPO. Una tendencia que otras firmas de análisis corroboran y comparten. Tractica, por ejemplo, reconocía en un informe de finales de 2018 que, en los 18 meses anteriores, se había llegado al punto de identificar el verdadero potencial de la tecnología. La firma pronosticaba un crecimiento en los ingresos derivados de deep learning acorde a esta situación: de 3.000 millones de dólares en los que se calculaba el mercado global del software de esta técnica en 2017 prevé que se pase a 67.200 millones de dólares en 2025

Otro informe de ese mismo año, este de la compañía de estudios de mercado McKinsey, analizaba más de 400 casos de uso de aprendizaje profundo en nueve funciones de negocio de 19 industrias distintas. El documento decía textualmente: “de media, nuestros casos de uso sugieren que las técnicas de IA-deep learning modernas tienen el potencial de dar un impulso en valor adicional por encima y más allá de las técnicas de analítica tradicionales que van del 30 al 128%, dependiendo de la industria”. La firma destaca el potencial sustancial de la aplicación de estas herramientas en distintos sectores económicos, aunque advierte también de posibles “limitaciones y obstáculos”, como los referidos a los problemas regulatorios y al tratamiento de datos. Y se atreve a proporcionar unas cifras que dan la medida del impacto que puede tener la tecnología: a través de un análisis del valor derivado de los proyectos estudiados, McKinsey estima que el potencial de valor anual total de estas técnicas en las industrias y procesos de negocio cubiertos fue de entre 3,5 billones y 5,8 billones de dólares, lo que congrega alrededor del 40% del que podrían llegar a tener el conjunto de técnicas analíticas. 

 

La propuesta de Fujitsu

“Para que esa inteligencia artificial entre en nuestras vidas tenemos que desarrollar semiconductores y circuitos cada vez más pequeños, que coordinen cada vez más datos”. Galano pone aquí el foco en uno de los ejes clave en los que trabaja Fujitsu y que suponen la base de su propuesta Deep Learning Unit o DLU. Este es un procesador diseñado específicamente para el trabajo con aprendizaje profundo y redes neuronales de grandes dimensiones, y que abre una nueva vía dentro del contexto de la computación de alto rendimiento que lo diferencia de otras iniciativas como el Fugaku, el futuro gran superordenador de Japón. Anteriormente conocido como Post-K Computer, este equipo empleará un procesador con arquitectura Arm en una iniciativa pionera en este terreno. El DLU, sin embargo, se basa en tecnologías derivadas de su predecesor, el K Computer, además de en la experiencia de la compañía en HPC.

Entre las características que Fujitsu destaca de este procesador, se pone de relieve que emplea una nueva arquitectura, definida por tres elementos: núcleos de dominio específico, precisión óptima y procesamiento masivamente paralelo. Con la arquitectura de dominio específico se opta por un hardware más sencillo, centrado en patrones de acceso de memoria sencillos frente a las infraestructuras más complejas de los procesadores de uso general, necesarias para conseguir un alto rendimiento en aplicaciones con distintos patrones de acceso a datos. Para la precisión óptima se introduce un acelerador específico, el Deep Learning Integer, que garantiza un menor gasto energético. 

En un contexto más amplio, desde Fujitsu el DLU es considerado uno de los tres ejes tecnológicos en los que apoyar el desarrollo de la inteligencia artificial: la computación cuántica, con Digital Annealer como punta de lanza; el HPC, en el que entraría su superordenador K; y la propia del procesador, el deep learning. Tres caminos distintos que expanden los límites de la computación y establecen la base para el desarrollo digital del futuro.



Whitepapers

Virtualización

Soluciones de teletrabajo para pymes

El mundo que conocemos ha cambiado debido a la pandemia de COVID-19. Ahora que muchos empleados trabajan desde cualquier lugar, Fujitsu y Quopiam se unen para ayudar a las pymes a implementar soluciones de t...

Big data

Tecnología para detectar síntomas de COVID-19

Detectar anomalías febriles es clave para que las empresas y los organismos públicos garanticen espacios seguros y cumplan el protocolo de obligado cumplimiento en la pandemia. Existe tecnología que facilita...

Hiperconvergencia

Guía de la nube híbrida

La nube se está convirtiendo en una tecnología esencial para el trabajo en TI, gracias a las posibilidades que ofrecen tanto a nivel de gestión como en economía y potenciales integraciones con otras herramientas, como big data, machine learning o IoT. Pero no siempre es posible realizar un paso completo a las plataformas cloud. Por eso, en los últimos tiempos se está consolidando una aceptación de los modelos híbridos, que combinan parte de la infraestructura en la nube y parte, generalmente ya existente, en entornos on-premise. Este documento profundiza en el estado y potencialidades de la TI híbrida.

Hiperconvergencia

Especificaciones de Nutanix Enterprise Cloud en PRIMERGY

Simplificación en la configuración y la infraestructura, acceso a entornos multicloud, buen rendimiento y potencia y escalabilidad son algunas de las ventajas que caracterizan a la solución Nutanix Enterpris...