Hogar Con visión de futuro ¿La ley de Moore está viva y bien? depende de cómo defina la escala

¿La ley de Moore está viva y bien? depende de cómo defina la escala

Video: Ley de Moore (Noviembre 2024)

Video: Ley de Moore (Noviembre 2024)
Anonim

Últimamente se ha hablado mucho sobre la desaceleración de la Ley de Moore y los desafíos que enfrentan los fabricantes de chips mientras intentan moverse a dimensiones cada vez más pequeñas. Ciertamente, las PC no se están volviendo más rápidas al ritmo que alguna vez fueron y los desafíos que enfrentan los fabricantes de chips nunca han sido tan altos. Aún así, Intel continúa insistiendo en que "la Ley de Moore está viva y bien", cuando habla de sus planes para la producción de 10 nm y 7 nm. Para tratar de averiguar qué está sucediendo, miré algunas medidas de progreso diferentes y obtuve algunas respuestas diferentes.

Si bien muchas personas confunden la Ley de Moore con la velocidad, en realidad es una medida de la tasa en el aumento de la complejidad del componente mínimo, más o menos indicando que el número de transistores se duplicará periódicamente. En el artículo inicial de 1965, esta duplicación ocurría todos los años, aunque en 1975, Moore estaba actualizando su proyección a duplicar cada dos años, que generalmente ha sido la marca que los fabricantes de chips han estado luchando desde entonces.

En el día de los inversores de Intel el mes pasado, Bill Holt, vicepresidente ejecutivo y gerente general del grupo de tecnología y fabricación, nuevamente mostró diapositivas que sugieren que el número de transistores "normalizados" por área continuaba disminuyendo a un ritmo mejor que duplicarse, aunque señaló que el costo de producción aumentaba aún más rápido de lo esperado. El resultado, dijo, es que el costo por transistor se ha mantenido en ritmo.

Pero por primera vez que puedo recordar, enfatizó que los diferentes tipos de transistores dentro de un chip requieren diferentes cantidades de área en el chip, con las celdas de memoria SRAM que son aproximadamente tres veces más densas que las celdas lógicas. Utilizó esta afirmación para desviar las preguntas sobre la densidad promedio del transistor en comparación con los chips Apple A9 fabricados por Samsung o TSMC.

Para ver más de cerca, mi colega John Morris y yo miramos las estadísticas publicadas de Intel sobre sus chips desde 1999, desde el Pentium III (conocido como Coppermine), que se produjo a 180 nm, hasta los chips Broadwell Core del año pasado, el primero hecho Con tecnología de 14nm.

Primero observamos la escala de paso de puerta: la distancia mínima entre las puertas que forman un transistor. La escala tradicional sugeriría que esto está disminuyendo 70 por ciento por generación para obtener la escala general de 50 por ciento. En esta medida, está claro que si bien el escalado continúa, no estamos viendo tanta reducción como cabría esperar.

Pero otras técnicas que usan los fabricantes de chips están cambiando eso un poco. Al observar las celdas de memoria SRAM, la parte más densa y más básica de un chip, podemos ver que hasta hace poco esto nos estaba dando una reducción del 50 por ciento por generación de proceso, aunque parece estar disminuyendo.

En los últimos años, Intel también ha enfatizado el escalado total del área lógica, que es el producto del paso de puerta y el paso mínimo de las interconexiones metálicas que enrutan las señales alrededor de ese chip y lo conectan al mundo exterior. Esto tiene sentido porque si los transistores lógicos escalan, pero las interconexiones no se reducen, el tamaño y el costo general del chip no disminuirán. Por ejemplo, el proceso FinFET de 16 nm de TSMC utiliza el mismo proceso de back-end de metal que su chip planar de 20 nm, por lo que ofrece poco en contracción (aunque es más rápido y usa menos energía). En términos de escala de área lógica, Intel parece estar en el objetivo en las últimas generaciones.

Hay muchas formas de ver las tendencias, y una cosa que parece clara es que ahora lleva más tiempo llegar al siguiente nodo que en los últimos 20 años. En lugar de dos años entre nodos, para el nodo de 14 nm y el próximo nodo de 10 nm, en realidad estará más cerca de 2.5 años, con chips de 10 nm programados para llegar en la segunda mitad de 2017.

Intel señala que a largo plazo, desde el primer microprocesador, el 4004, el tiempo entre las nuevas generaciones de tecnología de chips siempre ha sido un poco flexible.

Intel usa esta diapositiva (que el miembro de Intel Mark Bohr ha mostrado muchas veces) para indicar la cadencia de la Ley de Moore, desde el primer microprocesador, el Intel 4004, que usó 2, 300 transistores en un proceso de 10 micras en 1971, hasta el proceso actual de 14 nm. Al mirar este gráfico, Intel dice que la cadencia promedio ha sido un nuevo nodo cada 2.3 años. Desde ese punto de vista, un ritmo de 2.5 años para 14nm y 10nm no es tan significativo. Lo miro y veo una aceleración de la Ley de Moore desde aproximadamente 1995 hasta aproximadamente 2012, cuando comenzaron a aparecer los primeros productos Ivy Bridge de 22 nm. Ahora la cadencia parece estar disminuyendo una vez más.

(Tenga en cuenta que Intel dejó de dar información sobre el tamaño del troquel y el transistor con la generación de 14nm citando problemas competitivos, por lo que los últimos números que tenemos para un quad-core provienen del Haswell de 22nm, que tenía 1.4 mil millones de transistores en un troquel de 177 mm2).

Entonces, ¿se está desacelerando la Ley de Moore? Depende de cómo lo mires. Ciertamente, está claro que en algunas medidas el ritmo parece haberse desacelerado, y que los desafíos que enfrentan los fabricantes de chips se vuelven más difíciles con cada generación. Actualmente, solo cuatro compañías, Intel, GlobalFoundries, Samsung y TSMC, afirman tener procesos de 14 o 16 nm. Crear un nuevo chip en uno de estos nuevos procesos es más costoso que nunca. Pero hay suficientes razones y suficientes incentivos para esperar que veremos chips de 10 nm alrededor de 2017, y que seguirán chips de 7 nm, 5 nm y 3 nm.

¿La ley de Moore está viva y bien? depende de cómo defina la escala