Hogar Con visión de futuro Los grandes cambios finalmente están en el horizonte para las supercomputadoras

Los grandes cambios finalmente están en el horizonte para las supercomputadoras

Video: Supercomputadores: qué son y para qué sirven. (Noviembre 2024)

Video: Supercomputadores: qué son y para qué sirven. (Noviembre 2024)
Anonim

Mirando hacia atrás en la conferencia de supercomputación ISC 17 de esta semana, parece que el mundo de la supercomputación verá algunas mejoras importantes en los próximos dos años, pero la actualización de la lista quincenal Top 500 de las supercomputadoras más rápidas del mundo no fue muy diferente de La versión anterior.

Las computadoras más rápidas del mundo continúan siendo las dos máquinas chinas masivas que han encabezado la lista durante algunos años: la computadora Sunway TaihuLight del Centro Nacional de Supercomputación de China en Wuxi, con un rendimiento sostenido de Linpack de más de 93 petaflops (93 mil billones de punto flotante operaciones por segundo); y la computadora Tianhe-2 del Centro Nacional de Supercomputación de China en Guangzhou, con un rendimiento sostenido de más de 33.8 petaflops. Estas siguen siendo las máquinas más rápidas por un amplio margen.

El nuevo número tres es el sistema Piz Daint del Swiss National Supercomputing Center, un sistema Cray que utiliza Intel Xeons y Nvidia Tesla P100s, que se actualizó recientemente para darle un rendimiento sostenido de Linpack de 19.6 petaflops, el doble de su total anterior. Eso lo movió del número ocho en la lista.

Esto reduce el sistema superior de EE. UU., El sistema Titán en el Laboratorio Nacional Oak Ridge, hasta el cuarto lugar, lo que hace que esta sea la primera vez en veinte años que no hay un sistema estadounidense en los tres primeros. El resto de la lista permanece sin cambios, con Estados Unidos todavía representando cinco de los 10 principales en general, y Japón dos.

Incluso si la lista de computadoras más rápida no ha cambiado mucho, hay grandes cambios en otros lugares. En la lista Green 500 de los sistemas con mayor eficiencia energética, nueve de los diez principales cambiaron. En la parte superior está el sistema Tsubame 3.0, un sistema HPE ICE XA modificado en el Instituto de Tecnología de Tokio basado en un núcleo Xeon E5-2680v4 14, interconexión Omni-Path y Tesla P100 de Nvidia, que permite 14, 1 gigaflops por vatio. Este es un gran salto del DGX Saturn V de Nvidia, basado en la plataforma DGX-1 de la empresa y los chips P100, que era el número uno en la lista de noviembre pero el número diez esta vez, a 9, 5 gigaflops / vatio. El P100 se encuentra en nueve de los diez mejores sistemas Green500.

Romper 10 gigaflops / vatios es un gran problema porque significa que un hipotético sistema exaflop construido con la tecnología actual consumiría menos de 100 megavatios (MW). Eso sigue siendo demasiado, el objetivo es 20-30 MW para un sistema exaflop, que los investigadores esperan ver en los próximos cinco años más o menos, pero es un gran paso adelante.

Al igual que la lista Top 500, solo hubo cambios menores en listas similares con diferentes puntos de referencia, como el punto de referencia de Gradientes Conjugados de Alto Rendimiento (HPCG), donde las máquinas tienden a ver solo el 1-10 por ciento de su máximo rendimiento teórico, y donde la parte superior El sistema, en este caso, la máquina Riken K, todavía entrega menos de 1 petaflop. Tanto los sistemas TaihuLight como Piz Daint avanzaron en esta lista. Cuando los investigadores hablan de una máquina exaflop, tienden a significar el punto de referencia de Linpack, pero HPCG puede ser más realista en términos de rendimiento en el mundo real.

La aparición de la computación GPU como acelerador, casi siempre utilizando procesadores GPU Nvidia como el P100, ha sido el cambio más visible en estas listas en los últimos años, seguido de la introducción del acelerador propio de Intel, el Xeon Phi de muchos núcleos (que incluye la versión más reciente de Knights Landing). La lista actual de Top 500 incluye 91 sistemas que usan aceleradores o coprocesadores, incluidos 74 con GPU Nvidia y 17 con Xeon Phi (y otros tres con ambos); uno con una GPU AMD Radeon como acelerador, y dos que usan un procesador de muchos núcleos de PEZY Computing, un proveedor japonés. 13 sistemas adicionales ahora usan Xeon Phi (Knights Landing) como la unidad de procesamiento principal.

Pero muchos de los cambios más grandes en las supercomputadoras aún están en el horizonte, ya que comenzamos a ver sistemas más grandes diseñados con estos conceptos en mente. Un ejemplo es el nuevo MareNostrum 4 en el Barcelona Supercomputing Center, que entró en la lista Top 500 en el número 13. Tal como está instalado hasta ahora, este es un sistema Lenovo basado en la próxima versión Skylake-SP de Xeon (oficialmente Xeon Platinum 8160 24 -procesador de núcleo). Lo interesante aquí son los tres nuevos grupos de "tecnología emergente" planificados para los próximos años, incluido un grupo con procesadores IBM Power 9 y GPU Nvidia, diseñados para tener una capacidad máxima de procesamiento de más de 1.5 Petaflops; un segundo basado en la versión de Knights Hill de Xeon Phi; y un tercero basado en procesadores ARMv8 de 64 bits diseñados por Fujitsu.

Estos conceptos se están utilizando en varios otros proyectos importantes de supercomputación, en particular varios patrocinados por el Departamento de Energía de EE. UU. Como parte de su Colaboración CORAL en los Laboratorios Nacionales Oak Ridge, Argonne y Lawrence Livermore. Primero debe ser Summit en Oak Ridge, que utilizará procesadores IBM Power 9 y GPU Nvidia Volta, y programado para entregar más de 150 a 300 petaflops de pico; seguido por Sierra en Lawrence Livermore, programado para entregar más de 100 petaflops pico.

Entonces deberíamos ver la supercomputadora Aurora en el Laboratorio Nacional Argonne, basada en la versión Knights Hill de Xeon Phi y construida por Cray, que está programada para entregar 180 petaflops máximos. Los sistemas CORAL deben estar activos y corriendo el próximo año.

Mientras tanto, los grupos chinos y japoneses también han planeado actualizaciones, principalmente utilizando arquitecturas únicas. Debería ser interesante de ver.

Un cambio aún mayor parece estar un poco más alejado: el cambio hacia el aprendizaje automático, generalmente en unidades de procesamiento masivamente paralelas dentro del propio procesador. Si bien el número de Linpack se refiere al rendimiento de 64 bits o de doble precisión, hay clases de aplicaciones, incluidas muchas aplicaciones basadas en redes neuronales profundas, que funcionan mejor con cálculos de precisión simple o incluso de media precisión. Los nuevos procesadores se están aprovechando de esto, como el reciente anuncio del Volta V100 de Nvidia y la próxima versión de Knights Mill de Xeon Phi. En la feria, Intel dijo que esa versión, que se producirá en el cuarto trimestre, tendría nuevos conjuntos de instrucciones para "computación de baja precisión" llamada Quad Fused Multiply Add (QFMA) y Quad Virtual Neural Network Instruction (QVNNI).

Supongo que estos conceptos también podrían aplicarse a otras arquitecturas, como los TPU de Google o los FPGA de Intel y los chips Nervana.

Incluso si no estamos viendo grandes cambios este año, el próximo año deberíamos esperar ver más. El concepto de una máquina exascale (1000 teraflops) todavía está a la vista, aunque es probable que implique una serie de cambios aún mayores.

Los grandes cambios finalmente están en el horizonte para las supercomputadoras