El proceso de 10 nm de Intel no es viable, podrían virar a los 12 nm

Los que nos leéis a diario sabéis que Intel está teniendo problemas muy serios con el salto al proceso de 10 nm. Con el debut de los procesadores Core de primera generación Intel adoptó una estrategia conocida como “tick tock”, en la que cada dos años se producía una reducción del proceso de fabricación.

Este sistema permitía introducir avances importantes en términos de rendimiento, y también en todo lo relacionado con el consumo y las temperaturas de trabajo, aunque el abandono de Intel de la soldadura en el IHS tuvo consecuencias muy negativas e hizo que a pesar de las constantes reducciones de tamaño las temperaturas que alcanzaban sus procesadores no mejorasen. Para entender esta cuestión bastante con remontarnos al momento en el que se produjo ese cambio: con la llegada de Ivy Bridge.

Los procesadores Sandy Bridge estaban fabricados en 32 nm y los Ivy Bridge en 22 nm, pero los segundos registraban temperaturas muy elevadas que llegaban a ser incluso peores que los modelos de la generación anterior. Esto fue consecuencia directa del abandono de la soldadura presente en los Sandy Bridge, sustituida por pasta térmica en los Ivy Bridge.

Cambio de arquitectura frente a cambio de proceso

Como ya hemos dicho la estrategia “tick tock” de Intel se basada en un modelo muy sencillo: un año se introducía una reducción de proceso y al año siguiente una nueva arquitectura. El “tick” era esa reducción de proceso y representaba una compactación que permitía aumentar el número de transistores sin tener que elevar el consumo energético. La cuestión de las temperaturas de trabajo ya la hemos explicado en los párrafos anteriores. Un ejemplo lo tenemos en el salto de Sandy Bridge a Ivy Bridge que nombramos anteriormente, y también en el salto de Haswell (22 nm) a Broadwell (14 nm).

El “tock” es un cambio de microarquitectura que permite elevar el rendimiento bruto del procesador en términos de IPC, aunque también puede incluir un aumento de núcleos y un incremento de las velocidades de trabajo. Un ejemplo lo tenemos en el salto de Ivy Bridge (22 nm) a Haswell (22 nm).

Si esa estrategia se hubiera mantenido los procesadores Broadwell y Skylake deberían haber sido los únicos fabricados en proceso de 14 nm. Esto quiere decir que Kaby Lake (14 nm+) y Coffee Lake (14 nm++) no deberían haber llegado al mercado, y que en su lugar deberían haber estado Cannon Lake (10 nm) y su sucesora Ice Lake (10 nm+). La primera debería haber sido el “tick” sobre Skylake y la segunda el “tock” sobre Cannon Lake.

Los problemas que ha tenido Intel para dar el salto al proceso de 10 nm han puesto fin a la estrategia “tick tock” y nos han dejado con dos “refrescos” del proceso de 14 nm: Kaby Lake y Coffee Lake, a los que próximamente se sumará Whiskey Lake (Coffee Lake Refresh). Todo ese baile de nombres y el mantenimiento del proceso de 14 nm parecía indicar que los problemas del gigante del chip con el proceso de 10 nm eran más graves de lo que ellos mismos reconocían, y una nueva información lo confirma de manera bastante clara.

El proceso de 10 nm tiene una tasa de éxito muy baja

En este artículo vimos que Intel hablaba del proceso de 10 nm como una aproximación “demasiado ambiciosa” y del uso de la litografía ultravioleta extrema para completar con éxito la transición a los 7 nm. Esa explicación sugiere que la compañía debería haber apostado por dicha litografía como herramienta para saltar a los 10 nm desde el principio.

El gigante del chip lleva varios años trabajando en el proceso de 10 nm y por fin tiene una fecha de lanzamiento oficial: 2019. Sin embargo las últimas informaciones aseguran que el diseño original utilizado para dar el salto a dicho proceso sigue dando problemas tan graves que la tasa de éxito por oblea apenas llega al 8%-10%. El mínimo aceptable debería rondar entre el 50% y el 60%.

Esto hace que dicho proceso sea totalmente inviable tanto técnica como comercialmente, y habría llevado a Intel a introducir cambios importantes en ese diseño original que podrían obligar a la compañía a renunciar a los 10 nm ya optar por un paso intermedio: los 12 nm.

Os recordamos que el salto a un nuevo proceso de fabricación es complicado, pero que el grado de dificultad depende de la densidad de transistores. En este sentido Intel siempre ha adoptado una aproximación más ambiciosa, y por ello mucho más difícil. Para que podáis entenderlo mejor os dejamos un ejemplo que lo ilustra a la perfección:

Chip Intel en 10 nm: hasta 12 800 millones de transistores en 127 mm cuadrados.
SoC Apple A11 en 10 nm: 4 300 millones de transistores en 87.66 mm cuadrados.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *