Video: Basico: ¿Nvidia solo con Intel y radeon solo con AMD? (Noviembre 2024)
En la Conferencia de Tecnología GPU de Nvidia la semana pasada, me sorprendió ver cuán lejos se están moviendo los gráficos y la tecnología GPU, en el escritorio y en los dispositivos móviles, y cómo la forma en que las personas escriben el software tendrá que cambiar para aprovecharla.
El gran movimiento es hacia un software heterogéneo, programas que pueden usar tanto la CPU de microprocesador tradicional como la GPU al mismo tiempo. Este no es un concepto nuevo, tanto Nvidia como AMD han estado hablando de esto por un tiempo, pero las dos partes se están acercando.
El enfoque de AMD ha sido promover lo que llama "unidades de procesamiento acelerado", que combinan tanto GPU como CPU en un único dado, y lo que ha llamado "arquitectura de sistemas heterogéneos". Durante los últimos años, ha estado promoviendo HSA y el año pasado estableció la Fundación HSA, junto con otras 21 compañías, para desarrollar estándares abiertos para la computación heterogénea.
El enfoque de Nvidia ha sido muy diferente, centrándose en sus plataformas CUDA para escribir software en sus GPU y su versión Tesla de GPU, que ahora se están utilizando en supercomputadoras como la supercomputadora Titan del Laboratorio Nacional Oak Ridge. En tales sistemas, un software bastante complejo gestiona qué informática funciona en la CPU y qué funciona en la GPU.
Al abrir su discurso de apertura, el CEO de Nvidia, Jen-Hsun Huang, dijo: "La informática visual es un medio poderoso y único. En los últimos 20 años, este medio ha transformado la PC de una computadora para obtener información y productividad a una de creatividad, expresión y descubrimiento ". Los próximos años deberían decir si esa transición está llegando a una meseta o si, de hecho, solo está comenzando ".
Como era de esperar, Huang habló mucho en su discurso de apertura sobre cómo está creciendo la computación GPU basada en CUDA. La compañía ha enviado 430 millones de GPU con capacidad CUDA y 1.6 millones de descargas de kits de programación CUDA; Las GPU Nvidia ahora se utilizan en 50 supercomputadoras de todo el mundo. Por ejemplo, dijo, Titan recientemente realizó la simulación mecánica de sólidos más grande del mundo, utilizando 40 millones de procesadores CUDA para entregar 10 petaflops de rendimiento sostenido. También dijo que la informática de GPU tenía mucho potencial en aplicaciones de "big data".
Huang trajo a un representante de Shazam para hablar sobre cómo la compañía usa las GPU para ayudar a combinar la música y el audio de una gran cantidad de usuarios. Huang luego mencionó que una compañía llamada Cortexica está utilizando tecnología similar para la búsqueda visual.
Lo más importante, la compañía mostró una nueva hoja de ruta para su motor de GPU utilizado tanto en sus productos de juegos GeForce como en la línea Tesla. La arquitectura actual de la GPU se llama "Kepler", que se lanzó el año pasado. La próxima versión, conocida como "Maxwell", se lanzará el próximo año. Da un gran paso hacia la computación heterogénea al agregar una arquitectura de "memoria virtual unificada", lo que significa que la CPU y la GPU podrán ver toda la memoria del sistema.
Esto es importante porque uno de los grandes cuellos de botella en la informática de GPU ha sido mover datos entre los sistemas de memoria principal y la memoria de gráficos y porque escribir software que utiliza ambos tipos de procesadores ha sido difícil. (AMD ha anunciado una característica similar para su procesador Kaveri, prevista para finales de este año. No estoy seguro de cómo funciona sin el apoyo directo de los fabricantes de CPU, pero sin duda es un enfoque que veremos más de avanzando.)
Para 2015, Huang prometió otra versión, llamada "Volta", que tomará la memoria de gráficos y la apilará directamente sobre la GPU, aumentando dramáticamente el ancho de banda de la memoria a aproximadamente un terabyte por segundo. A modo de comparación, el ancho de banda máximo total de Kepler es de aproximadamente 192 gigabytes por segundo.
Varias compañías, incluida Intel, han estado hablando de apilar memoria en la parte superior de un procesador, pero el cableado para conectar la memoria y el procesador, que utiliza una técnica conocida como vías de silicio, ha sido complejo. Hasta donde yo sé, Volta es el primer procesador relativamente convencional anunciado que tendrá esta característica.
La hoja de ruta móvil tiene algunas de las mismas características. La compañía anunció recientemente sus procesadores Tegra 4 (con nombre en código "Wayne") y Tegra 4i (con nombre en código "Gray"). "Logan", que estará en producción en 2014, agrega los primeros gráficos con capacidad CUDA en la línea Tegra. Esto será seguido en 2015 con "Parker", que combinará la tecnología de GPU Maxwell con el primer diseño único de núcleo de CPU de la compañía, un procesador ARM de 64 bits conocido como Proyecto Denver. (Tenga en cuenta que si bien los dos procesadores comparten el diseño de la GPU, es probable que la cantidad de núcleos gráficos reales sea mucho menor en un procesador móvil que en una versión de escritorio).
Esto debería ser interesante tanto por la arquitectura de memoria unificada como porque está programado para fabricarse utilizando transistores 3D FinFET. Intel utiliza esta técnica en sus procesadores de 22nm y en su socio de fabricación de Nvidia, Taiwan Semiconductor Manufacturing Corp. y en su rival Globalfoundries, han dicho que tendrán FinFETS en algún momento del próximo año. Es probable que la producción en masa comience en 2015.
"En cinco años, aumentaremos el rendimiento de Tegra en 100 veces", prometió Huang.
Por supuesto, la gran pregunta es para qué usaremos la potencia de la computadora. Es bastante fácil para mí ver las aplicaciones de computación de alto rendimiento y "big data", que continúan creciendo y pueden usar fácilmente las funciones de computación paralela de las GPU. Nvidia ofrecerá estas características en una variedad de métodos diferentes, incluso a través de sus placas Tesla para estaciones de trabajo y supercomputadoras; su tecnología de virtualización de servidor de CPU GRID para servidores empresariales; y un nuevo GRID Virtual Computing Appliance (VCA), un chasis 4U con procesadores Xeon, GPU basadas en Kepler y memoria, dirigido a departamentos.
Y, por supuesto, los juegos usarán más gráficos, volviéndose más realistas en cada generación. El tamaño y la resolución de las pantallas están aumentando, y la gente quiere más gráficos. Huang mostró la nueva tarjeta gráfica de escritorio de gama alta de la compañía, llamada Titan, que ejecuta una simulación oceánica en tiempo real de Waveworks. También demostró Faceworks, una cabeza parlante en 3D llamada Ira (arriba), creada con el Instituto de Tecnología Creativa de la USC.
Llevar todas estas características al móvil es particularmente interesante. No estoy completamente seguro de que realmente necesite toda la potencia de una GPU de escritorio de alta gama en un dispositivo móvil; después de todo, en una pantalla de cinco pulgadas, 1.980 por 1.080 parece suficiente, pero no tengo dudas de que la gente encontrará usos para ello. Una preocupación es que usaría demasiado poder, pero Huang dijo que Logan sería "no más grande que un centavo". En cualquier caso, me interesará ver qué hará la gente con tanto rendimiento.
En general, Nvidia, como AMD, está apostando por mejoras gráficas continuas, memoria unificada y un enfoque heterogéneo para programar la CPU y la GPU. AMD diría que está trabajando con estándares abiertos, mientras que Nvidia señalaría los éxitos que CUDA está teniendo, particularmente en el ámbito de alto rendimiento. Y, por supuesto, está Intel, cuyos gráficos retrasan tanto a AMD como a Nvidia hoy, pero aún domina el área de la CPU de la PC. También tiene su propio conjunto de herramientas de software. Los diferentes enfoques deberían hacer de este un área fascinante para ver.