Hogar Con visión de futuro Supercomputación 15: cambios más grandes en el horizonte

Supercomputación 15: cambios más grandes en el horizonte

Video: ¿Por qué a veces la luna se ve más grande? - Todo tiene un porqué (Noviembre 2024)

Video: ¿Por qué a veces la luna se ve más grande? - Todo tiene un porqué (Noviembre 2024)
Anonim

Cuando miro los anuncios y las actas de la conferencia Supercomputing 15 (SC15) del mes pasado en Austin, parece que si bien la informática de alto rendimiento puede ser un poco lenta, es un mercado preparado para algunos grandes cambios en el año para ven.

Si observa a los líderes en la lista de los 500 mejores, la lista dos veces al año de las computadoras más rápidas del mundo, el líder por sexta vez consecutiva es el Tianhe-2, una supercomputadora construida por la Universidad Nacional de Tecnología de Defensa de China. De acuerdo con la lista top500, esta máquina ofrece 33.86 petaflop / s (miles de millones de cálculos por segundo) de rendimiento sostenido en el punto de referencia de Linpack y 54.9 petaflop / s de rendimiento máximo teórico. Esto se basa en los procesadores Intel Xeon y Xeon Phi.

El segundo lugar continúa para Titan, un sistema Cray XK7 basado en CPU AMD Opteron y GPU Nvidia K20x instaladas en el Laboratorio Nacional Oak Ridge del DOE, a 17.59 petaflop / s de rendimiento sostenido en el benchmark Linpack.

Dos nuevas máquinas rompieron el top 10. La computadora Trinity en el Laboratorio Nacional Lawrence Livermore (LLNL) ocupa el sexto lugar con 8.1 petaflop / s, mientras que el sistema Hazel-Hen en el Höchstleistungsrechenzentrum Stuttgart (HLRS) de Alemania ocupó el octavo lugar con 5.6 petaflop / s. Ambas son máquinas Cray XC, basadas en procesadores Intel Xeon con interconexión Aries.

Los cambios más grandes ocurren más abajo en la lista, particularmente con un gran aumento en el número de sistemas chinos, que creció a 109, en comparación con solo 37 en la lista anterior. En parte, esto parece ser de más sistemas chinos que ejecutan los puntos de referencia y envían resultados para la lista. Como resultado, el número de sistemas estadounidenses cayó de 231 a 200, que es el número más bajo desde que se inició la lista en 1993; y el número de sistemas europeos se redujo de 141 a 108.

Una gran tendencia es un aumento en el número de sistemas que usan aceleradores o coprocesadores, que aumentó a 104 sistemas en la lista actual, en comparación con los 90 de julio. La mayoría de esos sistemas usan GPU Nvidia Tesla, seguidos por los coprocesadores Xeon Phi de Intel, y algunos usan una combinación. Nvidia señaló que estaba en 70 de estos sistemas, incluidos 23 de los 24 sistemas nuevos en la lista.

En la feria, Nvidia destacó el crecimiento de los aceleradores, y particularmente la cantidad de aplicaciones que ahora están disponibles optimizadas para la arquitectura CUDA de la firma. La compañía dice que el 90 por ciento de las 10 principales aplicaciones informáticas de alto rendimiento y el 70 por ciento de las 50 principales ahora están aceleradas. Un uso intrigante es para sistemas que ejecutan simulaciones climáticas, una aplicación importante para la informática de alto rendimiento, ya que los pronósticos meteorológicos son producidos por todo tipo de gobiernos. Cray había señalado anteriormente el uso de dichos aceleradores en la Oficina de Meteorología de Suiza (MeteoSwiss) y ha hablado sobre cómo funciona con los investigadores en Suiza para reescribir muchas de sus aplicaciones. Nvidia ahora apunta al uso de aceleradores por parte de la Administración Nacional Oceánica y Atmosférica (NOAA) para algunas de sus predicciones meteorológicas.

Entre otras aplicaciones, Cray promocionó las aplicaciones de petróleo y gas, como el uso de la geofísica 3D para simular un yacimiento, así como los servicios financieros, como la evaluación de riesgos. Tales aplicaciones rara vez constituyen los sistemas más rápidos del mundo, pero son una indicación de que la informática de alto rendimiento está tomando un papel más amplio en más aplicaciones corporativas. Cray ha hablado sobre una progresión constante para ejecutar modelos más grandes y detallados en todas las disciplinas científicas y de ingeniería, y combinar las cargas de trabajo tradicionales con análisis.

También me interesó un anuncio de la Fundación Linux de un nuevo esfuerzo llamado OpenHPC, diseñado para crear estándares más abiertos en el mundo HPC. Es una idea interesante, y parece que muchos de los grandes jugadores están firmando.

Hay una serie de nuevos sistemas en proceso. IBM está construyendo una nueva máquina llamada Summit en Oak Ridge National Laboratories (ORNL) y otra llamada Sierra en Lawrence Livermore National Laboratory (LLNL), ambas basadas en CPU de arquitectura IBM Power, GPU Nvidia Tesla e interconexiones Mellanox. Se espera que Summit entregue 150 a 300 petaflop / s pico, y Sierra más de 100 petaflop / s.

Además, Intel y Cray están construyendo una nueva máquina llamada Aurora, basada en los próximos procesadores Intel Xeon Phi de Knights Hill para The Argonne Leadership Computing Facility (parte de Argonne National Labs), que apunta a 150 petaflops en 2018. Todos estos son parte de un programa del Departamento de Energía conocido como Colaboración de los laboratorios nacionales Oak Ridge, Argonne y Lawrence Livermore (CORAL), cuyo objetivo es acelerar el desarrollo de la informática de alto rendimiento, y específicamente el proyecto FastForward 2.

Aún así, todavía tenemos un largo camino por recorrer en el camino hacia la "computación de exascala".

Mientras tanto, hubo varios anuncios de procesador que podrían ser un buen augurio para el futuro. Nvidia, en particular, impulsó el uso de supercomputadoras para aplicaciones web de hiperescala, en particular el aprendizaje automático. Anunció unos pocos productos de gama baja: la placa Tesla M40 con 3072 núcleos CUDA, que según dijo era capaz de realizar hasta 7 teraflop / s de precisión simple, dirigida principalmente a la formación de "aprendizaje profundo", y el M4, una placa de potencia más baja con 1024 núcleos y 2.2 teraflop / s de precisión simple, que se puede utilizar para la inferencia de aprendizaje profundo, así como para el procesamiento de imágenes y videos. Además, la compañía anunció un nuevo "conjunto de hiperescala" con aplicaciones destinadas a los sitios informáticos más grandes. Los dos nuevos productos de hardware se basan en tecnología de proceso de 28 nm y en la arquitectura Maxwell de la compañía.

La compañía ha anunciado dos arquitecturas de seguimiento, conocidas como Pascal, que vencen el próximo año, y Volta, que lo seguirán. Intel se centró en cómo HPC afecta a la ciencia, y me intrigó su descripción de cómo usa su propia supercomputadora, actualmente en el puesto 99 de la lista de las 500 principales, para ayudar a diseñar sus propios procesadores. En particular, la compañía dijo que usa un millón de horas de CPU solo para diseñar las fotomascaras para los procesadores de próxima generación.

Gran parte de la actividad de Intel se centró en Knights Landing, la próxima versión de su chip Xeon Phi, que puede usarse como acelerador pero también arrancado; y su tejido Omni-Path. Aunque Intel ahora dice que la disponibilidad general será en la primera mitad de 2016, algunos clientes tienen acceso anticipado a Knights Landing. Actualmente, Cray está probando un gran sistema de Knights Landing en preparación para entregar una nueva supercomputadora llamada Cori para el Centro Nacional de Computación Científica de Investigación Energética (NERSC), y el Laboratorio Nacional de Los Alamos y los Laboratorios Nacionales Sandia, el próximo año. Bull, una unidad del integrador de sistemas francés Atos, también ha recibido las primeras versiones de Knights Landing para prepararse para el sistema Tera 1000 que está construyendo para la Comisión Francesa de Energías Alternativas y Energía Atómica. Argonne Leadership Computing Facility está trabajando en un sistema llamado Theta, que se entregará el próximo año, y Sandia National Laboratories está trabajando con Penguin Computing para actualizar varios sistemas que utilizan generaciones anteriores de coprocesadores Xeon Phi.

Intel ha dicho anteriormente que habrá tres versiones diferentes de Knights Landing: un procesador host de línea base (capaz de autoarrancarse), un procesador host con un tejido Omni-Path integrado y una tarjeta aceleradora PCIe. El chip en sí consistirá en 36 mosaicos, cada uno con dos núcleos de CPU (un total de 72 núcleos), cuatro unidades de procesamiento de vectores (dos por núcleo), 1 MB de caché L2 compartida y un agente de almacenamiento en caché para mantener la coherencia; e Intel ha dicho que debería ofrecer aproximadamente tres veces el rendimiento escalar de la CPU Knights Corner, con 3 teraflop / s de doble precisión y 6 teraflop / s de precisión máxima. También utiliza un nuevo sistema de memoria llamado MCDRAM, memoria en el paquete con más de 3 veces el ancho de banda disponible en comparación con la salida a DDR4 que parece ser una variante de la arquitectura del Cubo de memoria híbrida que Intel y Micron han mencionado al respecto. En la feria, Cray tenía un prototipo de sistema con un Knights Landing de arranque, y varios otros proveedores mostraban sistemas diseñados para Knights Landing. Esta versión de Xeon Phi está programada para ser seguida por una versión llamada Knights Hill, que se construirá en el próximo proceso de 10 nm.

Además, Fujitsu habló un poco más sobre su proyecto Flagship 2020, basado en un nuevo chip conocido como FX100 con 32 núcleos. Se espera que esto cuadruplique aproximadamente el rendimiento de punto flotante sobre el FX10 actual, y al igual que Knights Landing, el FX100 de Fujitsu también usará una versión de la arquitectura Hybrid Memory Cube. Además, NEC tiene un proyecto con nombre en código Aurora (no relacionado con el proyecto CORAL), basado en su seguimiento del chip SX-ACE pero con mayor ancho de banda de memoria. Este es el objetivo para 2017.

Supercomputación 15: cambios más grandes en el horizonte