Video: Arquitectura de Sistemas - Segmentación - Antonio Llanes (Noviembre 2024)
En los últimos años, hemos visto algunos enfoques nuevos e interesantes para la informática de alto rendimiento, en particular, un cambio desde los grandes procesadores tradicionales hacia los clústeres de CPU x86 con aceleradores o coprocesadores para acelerar determinados tipos de cálculos. Al salir del show de Supercomputación de la semana pasada, vimos a Intel presionando para integrar su coprocesador Xeon Phi con su procesador de servidor Xeon tradicional para facilitar la programación; Nvidia presenta una nueva versión de su acelerador de GPU Tesla; y Micron respalda un tipo de procesador muy diferente para una informática aún más especializada. Y todo esto sucedía en un momento en que los aceleradores y los coprocesadores están llegando a dominar la lista de las 500 computadoras más rápidas del mundo, lo que lleva a algunos expertos a sugerir que los puntos de referencia existentes dan demasiado peso a estos procesadores.
Nvidia promocionaba sus éxitos con sus placas aceleradoras Tesla, grandes grupos de GPU conectadas a los procesadores principales de Intel o AMD. Dichos chips se utilizan en una amplia variedad de sistemas, incluido el sistema Titan en el Laboratorio Nacional Oak Ridge y el nuevo sistema Piz Daint en el Centro Nacional de Supercomputación de Suiza. Más interesante aún, la compañía dice que las placas Tesla se encuentran en los 10 mejores sistemas de la lista Green 500 más reciente de las supercomputadoras más eficientes del mundo. Todos estos sistemas también usan Intel Xeons con la excepción de Titan, con sede en AMD Opteron, que es el segundo sistema más rápido del mundo en el Top 500, pero ocupa un lugar mucho más bajo en la lista Green 500.
Además, Nvidia anunció una asociación con IBM para ofrecer sus aceleradores Tesla en sistemas basados en la arquitectura IBM Power. IBM ha promocionado durante mucho tiempo su rendimiento en serie, y su sistema BlueGene / Q basado en procesadores Power ejecuta el sistema Sequoia en el Laboratorio Nacional Lawrence Livermore y el sistema Mira en el Laboratorio Nacional Argonne, entre otros. Tener a IBM y Nvidia trabajando juntos debería dar como resultado algunos sistemas interesantes en el futuro.
En la feria, la compañía anunció su Tesla K40, la próxima generación de su placa aceleradora de GPU. La compañía dijo que ofrecerá 1, 4 teraflops de rendimiento de doble precisión, 12 GB de memoria (ancho de banda de 288 GBps) y una función GPU Boost, que le permite funcionar a una velocidad de reloj más rápida en algunas situaciones. Esta es una actualización de la serie Tesla K20 existente, utilizando el mismo diseño básico de GPU producido con tecnología de 28 nm.
Otras iniciativas incluyen formas de facilitar la programación de GPU, incluido CUDA 6, que ahora admite memoria unificada, lo que permite a los desarrolladores acercarse a la memoria como un solo grupo, a pesar de que la memoria de CPU y GPU permanecen separadas. La compañía también es compatible con OpenACC, una colección estándar de directivas de compilación que le dice al sistema qué partes del programa (escritas en C / C ++ y Fortran) se pueden descargar de la CPU a un acelerador para aumentar el rendimiento.
El enfoque de Intel, que llama su arquitectura Many Integrated Core (MIC), es muy diferente. Combina múltiples núcleos x86 pequeños en un solo chip llamado Xeon Phi. Durante los últimos años, Intel ha estado promocionando el hecho de que todo es x86 para facilitar la programación, aunque está claro que los desarrolladores aún tienen que apuntar directamente a la arquitectura. La versión actual del Xeon Phi, llamada Knights Corner, está diseñada para usarse como acelerador junto con los chips de servidor Xeon E más tradicionales, y es utilizada por una variedad de los mejores sistemas, incluido el Tianhe-2 de China (actualmente el sistema más rápido). en el mundo) y el sistema Stampede en el Advanced Computing Center de la Universidad de Texas.
En la feria, Intel anunció una nueva versión con nombre en código Knights Landing, que también funcionará como una CPU independiente que puede caber en una arquitectura de bastidor estándar y ejecutar el sistema operativo directamente, sin requerir una CPU host (como el Xeon E). Esto podría ser bastante importante para ampliar el atractivo de Xeon Phi, particularmente en el mercado de estaciones de trabajo. Nuevamente, esto está diseñado para facilitar que los desarrolladores de software lo vean como una sola CPU. Knights Landing estará disponible como una CPU independiente y como una placa PCI Express que se adapta a los sistemas existentes como una actualización de Knights Corner.
También hay otros cambios significativos en Knights Landing, incluida la adición de "memoria cercana", efectivamente DRAM que se ofrece en el paquete con la CPU y, por lo tanto, puede ofrecer un ancho de banda mucho mayor que la memoria DDR tradicional, que está limitada por la velocidad de el autobús. (Eso también se está volviendo más rápido, pero no tanto). Este no es el primer movimiento en esta dirección; IBM ha promocionado la DRAM integrada en su arquitectura Power durante años e Intel está poniendo DRAM integrada para gráficos en las versiones Iris Pro de su familia Haswell Core. Aún así, supongo que veremos muchos más esfuerzos en esta dirección en los próximos años.
Mientras tanto, uno de los nuevos enfoques más interesantes proviene de Micron, que anunció un nuevo acelerador llamado Procesador de Autómatas diseñado principalmente para abordar problemas complejos de datos no estructurados.
Micron describió esto como una tela compuesta por decenas de miles a millones de elementos de procesamiento conectados para resolver tareas específicas. La compañía, uno de los mayores fabricantes de memoria DRAM y NAND, dice que utilizará el procesamiento basado en memoria para resolver desafíos informáticos complejos en áreas como seguridad de red, bioinformática, procesamiento de imágenes y análisis. Micron inicialmente distribuirá el procesador de autómatas en una placa PCI-Express para que los desarrolladores trabajen con él, pero la compañía planea vender los procesadores en módulos de memoria estándar, conocidos como DIMM, o como chips individuales para sistemas integrados. De alguna manera, esto suena similar a los arreglos de compuerta programables en campo (FPGA), que se ajustan para resolver aplicaciones particulares que involucran coincidencia de patrones.
La compañía dijo que está trabajando con Georgia Tech, la Universidad de Missouri y la Universidad de Virginia para desarrollar nuevas aplicaciones para Automata. Aunque la compañía no ha anunciado una fecha para los productos finales, el próximo año se lanzará un kit de desarrollo de software, junto con herramientas de simulación.
Los autómatas suenan como un trabajo en progreso y probablemente sea demasiado pronto para saber qué tan amplias son las aplicaciones, pero es un enfoque interesante.
En general, estamos viendo la evolución de la informática de alto rendimiento. No hace muchos años, las computadoras más rápidas eran en su mayoría enormes cantidades de procesadores de servidor estándar. De hecho, los sistemas IBM Blue Gene y aquellos basados en Sparc (como la computadora K del Instituto Avanzado de Ciencia Computacional RIKEN en Japón, que utiliza procesadores Fujitsu Sparc) todavía representan una gran parte del mercado, incluidos cinco de los 10 más rápidos. sistemas en el mundo. Pero en los últimos años, el impulso se ha movido hacia el coprocesador, con sistemas que usan Tesla y, más recientemente, aceleradores Xeon Phi que componen más de los sistemas más nuevos. Con mejoras en esos sistemas, nuevas asociaciones, un mejor software y algunos enfoques nuevos, el mercado de la supercomputación puede ser muy diferente en el futuro.