El ascenso, caída y resurgimiento de AMD

AMD es uno de los diseñadores más antiguos de microprocesadores a gran escala y ha sido objeto de un debate polarizador entre los entusiastas de la tecnología durante casi 50 años. Su historia lo convierte en una historia emocionante, llena de éxitos heroicos, errores imprudentes y un afeitado apurado con desorden y ruina. Donde otras empresas de semiconductores han ido y venido, AMD ha resistido muchas tormentas y librado numerosas batallas en salas de juntas, tribunales y tiendas.

En esta función revisaremos el pasado de la compañía, examinaremos los giros y vueltas en el camino hacia el presente y nos preguntaremos qué le espera a este veterano de Silicon Valley.

El ascenso a la fama y la fortuna

Para comenzar nuestra historia, necesitamos retroceder los años y dirigirnos hacia Estados Unidos y finales de la década de 1950. Prosperando después de los duros años de la Segunda Guerra Mundial, este era el momento y el lugar para estar si deseaba experimentar la vanguardia de la innovación tecnológica.

Empresas como Bell Laboratories, Texas Instruments y Fairchild Semiconductor emplearon a los mejores ingenieros y produjeron numerosas primicias: el transistor de unión bipolar, el circuito integrado y el MOSFET (transistor de efecto de campo semiconductor de óxido metálico).


Ingenieros de Fairchild, alrededor de 1960 – Gordon Moore está en el extremo izquierdo, Robert Noyce está en el medio en primer plano

Estos jóvenes técnicos querían investigar y desarrollar productos cada vez más interesantes, pero con altos directivos cautelosos conscientes de los tiempos en que el mundo era temeroso e inestable, la frustración entre los ingenieros generaba el deseo de actuar solos.

Y así, en 1968, dos empleados de Fairchild Semiconductor, Robert Noyce y Gordon Moore, dejaron la empresa y forjaron su propio camino. NM Electronics abrió sus puertas en ese verano, para ser renombrado solo unas semanas después como Integrated Electronics – Intel, para abreviar.

Otros siguieron su ejemplo y menos de un año después, otras 8 personas se fueron y juntos crearon su propia empresa de diseño y fabricación de productos electrónicos: Advanced Micro Devices (AMD, naturalmente).

El grupo estaba encabezado por Jerry Sanders, ex director de marketing de Fairchild. Comenzaron rediseñando partes de Fairchild y National Semiconductor en lugar de intentar competir directamente con empresas como Intel, Motorola e IBM (que gastaron importantes sumas de dinero en investigación y desarrollo de nuevos circuitos integrados).

Desde estos humildes comienzos, y con sede en Silicon Valley, AMD ofreció productos que se jactaban de una mayor eficiencia, tolerancia al estrés y velocidad en unos pocos meses. Estos microchips fueron diseñados para cumplir con los estándares de calidad militar de EE. UU., Lo que resultó ser una ventaja considerable en la industria de la computación aún joven, donde la confiabilidad y la consistencia de la producción variaban enormemente.


La primera CPU imitadora de AMD: la Am9080.

Cuando Intel lanzó su primer microprocesador de 8 bits (el 8008) en 1974, AMD era una empresa pública con una cartera de más de 200 productos, una cuarta parte de los cuales eran sus propios diseños, incluidos chips de RAM, contadores lógicos y bits. cambiadores. El año siguiente vio una serie de nuevos modelos: su propia familia de circuitos integrados (IC) Am2900 y el Am9080 de 2 MHz y 8 bits , una copia de ingeniería inversa del sucesor de Intel del 8008. El primero era una colección de componentes que ahora son totalmente integrado en CPU y GPU, pero hace 35 años, las unidades lógicas aritméticas y los controladores de memoria eran chips separados.

El plagio descarado del diseño de Intel puede parecer algo impactante para los estándares actuales, pero era parte del curso en los días incipientes de los microchips. El clon de la CPU finalmente se renombró como 8080A, después de que AMD e Intel firmaron un acuerdo de licencia cruzada en 1976. Se imagina que esto costaría uno o dos centavos, pero solo $ 325,000 ($ 1,65 millones en dólares de hoy).

El acuerdo permitió a AMD e Intel inundar el mercado con chips ridículamente rentables, con un precio minorista de poco más de 350 dólares o el doble de las compras “militares”. El procesador 8085 (3 MHz) siguió en 1977, y pronto se le unió el 8086 (8 MHz). En 1979 también comenzó la producción en las instalaciones de AMD en Austin, Texas.

Cuando IBM comenzó a pasar de los sistemas mainframe a las llamadas computadoras personales (PC) en 1982, el equipo decidió subcontratar piezas en lugar de desarrollar procesadores internamente. El 8086 de Intel , el primer procesador x86 de la historia, fue elegido con la estipulación expresa de que AMD actuaba como fuente secundaria para garantizar un suministro constante de PC / AT de IBM.


De cualquier color, siempre que sea beige. PC 5150 de IBM de 1981

Un contrato entre AMD e Intel se firmó en febrero de ese año, y el primero produjo procesadores 8086, 8088, 80186 y 80188, no solo para IBM, sino para los muchos clones de IBM que proliferaron (Compaq es solo uno de ellos). . AMD también comenzó a fabricar el Intel 80286 de 16 bits, denominado Am286 , hacia fines de 1982.

Este se convertiría en el primer procesador de PC de escritorio verdaderamente significativo, y mientras que los modelos de Intel generalmente variaban de 6 a 10 MHz, los de AMD comenzaron en 8 MHz y llegaron a 20 MHz. Sin duda, esto marcó el comienzo de la batalla por el dominio de la CPU entre las dos potencias de Silicon Valley; lo que Intel diseñó, AMD simplemente trató de mejorarlo.

Este período representó un gran crecimiento del incipiente mercado de PC, y al señalar que AMD había ofrecido el Am286 con un aumento de velocidad significativo sobre el 80286, Intel intentó detener a AMD en su camino. Esto se hizo excluyéndolos de obtener una licencia para los procesadores 386 de próxima generación.

AMD presentó una demanda, pero el arbitraje tardó cuatro años y medio en completarse, y aunque el fallo determinó que Intel no estaba obligado a transferir todos los productos nuevos a AMD, se determinó que el mayor fabricante de chips había incumplido un pacto implícito de buena fe.

La denegación de la licencia de Intel ocurrió durante un período crítico, justo cuando el mercado de IBM PC se estaba disparando del 55% al ​​84%. Sin acceso a las nuevas especificaciones del procesador, AMD tardó más de cinco años en realizar ingeniería inversa del 80386 en el Am386 . Una vez completado, demostró una vez más ser más que un rival para el modelo de Intel. Donde el 386 original debutó a solo 12 MHz en 1985, y luego logró alcanzar los 33 MHz, la versión de gama alta del Am386DX se lanzó en 1989 a 40 MHz.

El éxito del Am386 fue seguido por el lanzamiento del altamente competitivo Am486 de 40 MHz de 1993, que ofrecía aproximadamente un 20% más de rendimiento que el i486 de 33 MHz de Intel por el mismo precio. Esto se iba a replicar en toda la línea 486, y aunque el 486DX de Intel alcanzó los 100 MHz, AMD ofreció (algo predecible en esta etapa) una opción más ágil de 120 MHz. Para ilustrar mejor la buena fortuna de AMD en este período, los ingresos de la compañía se duplicaron de poco más de $ 1 mil millones en 1990 a más de $ 2 mil millones en 1994.

En 1995, AMD presentó el procesador Am5x86 como sucesor del 486, ofreciéndolo como una actualización directa para computadoras más antiguas. El Am5x86 P75 + contaba con una frecuencia de 150 Mhz, con el rendimiento de referencia ‘P75’ que era similar al Pentium 75 de Intel. El ‘+’ significaba que el chip AMD era ligeramente más rápido en matemáticas enteras que la competencia.

Para contrarrestar esto, Intel modificó sus convenciones de nomenclatura para distanciarse de los productos de su rival y otros proveedores. El Am5x86 generó ingresos significativos para AMD, tanto por las nuevas ventas como por las actualizaciones de 486 máquinas. Al igual que con los Am286, 386 y 486, AMD continuó ampliando el alcance del mercado de las piezas ofreciéndolas como soluciones integradas.

Marzo de 1996 vio la introducción de su primer procesador, desarrollado íntegramente por los propios ingenieros de AMD: el 5k86 , más tarde rebautizado como K5. El chip fue diseñado para competir con Intel Pentium y Cyrix 6×86, y una sólida ejecución del proyecto fue fundamental para AMD: se esperaba que el chip tuviera una unidad de punto flotante mucho más potente que la de Cyrix y casi igual al Pentium 100, mientras que el rendimiento entero apuntaba al Pentium 200.


Una imagen en falso color del chip del K5.

Al final, fue una oportunidad perdida, ya que el proyecto estuvo plagado de problemas de diseño y fabricación. Esto dio como resultado que la CPU no cumpliera con los objetivos de frecuencia y rendimiento, y llegó tarde al mercado, lo que provocó que sufriera bajas ventas.

En ese momento, AMD había gastado $ 857 millones en acciones en NexGen , una pequeña empresa de chips sin fábrica (solo de diseño) cuyos procesadores fueron fabricados por IBM. El K5 de AMD y el K6 de desarrollo tenían problemas de escala a velocidades de reloj más altas (~ 150 MHz y superiores), mientras que el Nx686 de NexGen ya había demostrado una velocidad de núcleo de 180 MHz. Después de la compra, el Nx686 se convirtió en el K6 de AMD y el desarrollo del chip original fue enviado al depósito de chatarra.

El ascenso de AMD reflejó el declive de Intel, desde los inicios de la arquitectura K6, que se enfrentó al Pentium, Pentium II y (en gran parte rebautizado) Pentium III de Intel. El K6 aceleró el éxito de AMD, debido a su existencia y capacidades a un ex empleado de Intel, Vinod Dham (también conocido como el “Padre de Pentium”), que dejó Intel en 1995 para trabajar en NexGen.

Cuando el K6 llegó a las tiendas en 1997, representaba una alternativa viable al Pentium MMX. El K6 fue viento en popa – de una velocidad de 233 MHz en el paso inicial, a 300 MHz para la revisión “Little Foot” en enero de 1998, 350 MHz en el “Chomper” K6-2 de mayo de 1998, y un asombroso 550 MHz en septiembre de 1998 con la revisión “Chomper Extended”.

El K6-2 presentó 3DNow! De AMD. Conjunto de instrucciones SIMD ( instrucción única, datos múltiples ). Esencialmente igual que el SSE de Intel, ofrecía una ruta más fácil para acceder a las capacidades de punto flotante de la CPU; la desventaja de esto es que los programadores necesitaban incorporar la nueva instrucción en cualquier código nuevo, además de los parches y compiladores que necesitaban ser reescritos para utilizar la función.

Al igual que el K6 inicial, el K6-2 representaba un valor mucho mejor que la competencia, a menudo costaba la mitad que los chips Pentium de Intel. La iteración final del K6, el K6-III , fue una CPU más complicada, y el recuento de transistores ahora era de 21,4 millones, frente a los 8,8 millones del primer K6 y los 9,4 millones del K6-II.

Incorporaba PowerNow de AMD, que alteraba dinámicamente las velocidades de reloj de acuerdo con la carga de trabajo. Con velocidades de reloj que finalmente alcanzaron los 570MHz, el K6-III era bastante caro de producir y tuvo una vida útil relativamente corta interrumpida por la llegada del K7, que se adaptaba mejor a competir con el Pentium III y más allá.

A partir de 500 MHz, las CPU Athlon utilizaron la nueva ranura A (EV6) y un nuevo bus de sistema interno con licencia de DEC que operaba a 200 MHz, eclipsando los 133 MHz que Intel ofrecía en ese momento. Junio ​​de 2000 trajo el Athlon Thunderbird , una CPU apreciada por muchos por su capacidad de overclock, que incorporó soporte de RAM DDR y un caché en la matriz de nivel 2 de velocidad completa.


2 GHz de bondad de CPU de 64 bits.

Thunderbird y sus sucesores (Palomino, Thoroughbred, Barton y Thorton) lucharon contra el Pentium 4 de Intel durante los primeros cinco años del milenio, generalmente a un precio más bajo pero siempre con un mejor rendimiento. Athlon se actualizó en septiembre de 2003 con el K8 (con nombre en código ClawHammer), más conocido como Athlon 64 , porque agregó una extensión de 64 bits al conjunto de instrucciones x86.

Este episodio se suele citar como el momento decisivo de AMD. Mientras avanzaba, el enfoque de MHz a cualquier costo de la arquitectura Netburst de Intel estaba siendo expuesto como un ejemplo clásico de un callejón sin salida en el desarrollo.

Los ingresos y los ingresos operativos fueron excelentes para una empresa tan relativamente pequeña. Aunque no tiene los niveles de ingresos de Intel, AMD estaba llena de éxito y ansiaba más. Pero cuando estás en la cima de la montaña más alta, se necesita todo el esfuerzo para permanecer allí; de lo contrario, solo hay camino por recorrer.

Paraíso perdido

No hay un solo evento responsable de que AMD caiga de su elevada posición. Una crisis de la economía global, mala gestión interna, malas predicciones financieras, una víctima de su propio éxito, las fortunas y fechorías de Intel, todo esto jugó un papel, de una forma u otra.

Pero comencemos a ver cómo estaban las cosas a principios de 2006. El mercado de CPU estaba repleto de ofertas tanto de AMD como de Intel, pero el primero tenía los gustos de la excepcional serie Athlon 64 FX basada en K8. El FX-60 era de 2,6 GHz de doble núcleo, mientras que el FX-57 era de un solo núcleo, pero funcionaba a 2,8 GHz.

Ambos estaban por encima de cualquier otra cosa, como lo muestran las revisiones en ese momento . Eran enormemente caros, con el FX-60 vendiéndose a más de $ 1,000, pero también lo era el creme-de-la-creme de Intel, el Pentium Extreme Edition 955 de 3.46 GHz . AMD también parecía tener la ventaja en el mercado de estaciones de trabajo / servidores, con los chips Opteron superando a los procesadores Xeon de Intel.

El problema para Intel era su arquitectura Netburst: la estructura de tubería ultra profunda requería velocidades de reloj muy altas para ser competitiva, lo que a su vez aumentaba el consumo de energía y la producción de calor. El diseño había alcanzado sus límites y ya no estaba a la altura, por lo que Intel abandonó su desarrollo y recurrió a su antigua arquitectura de CPU Pentium Pro / Pentium M para construir un sucesor del Pentium 4.

La iniciativa produjo primero el diseño de Yonah para plataformas móviles y luego la arquitectura Conroe de doble núcleo para computadoras de escritorio, en agosto de 2006. Tal era la necesidad de Intel de salvar las apariencias que relegaron el nombre Pentium a modelos de bajo presupuesto y lo reemplazaron con Core . – 13 años de dominio de la marca barridos en un instante.

El cambio a un diseño de chip de alto rendimiento y bajo consumo terminó siendo ideal para una multitud de mercados en evolución y, casi de la noche a la mañana, Intel se llevó la corona de rendimiento en los sectores convencionales y entusiastas. A fines de 2006, AMD había sido empujado firmemente desde la cima de la CPU, pero fue una decisión administrativa desastrosa la que los empujó por la pendiente.

Tres días antes de que Intel lanzara el Core 2 Duo, AMD hizo público un movimiento que había sido totalmente aprobado por el entonces CEO Héctor Ruiz (Sanders se había jubilado 4 años antes). El 24 de julio de 2006, AMD anunció que tenía la intención de adquirir el fabricante de tarjetas gráficas ATI Technologies , en un acuerdo por valor de $ 5.4 mil millones (que comprende $ 4.3 mil millones en efectivo y préstamos, y $ 1.1 mil millones recaudados de 58 millones de acciones). El acuerdo fue una gran apuesta financiera, que representaba el 50% de la capitalización de mercado de AMD en ese momento, y aunque la compra tenía sentido, el precio no lo tenía en absoluto.

ATI estaba muy sobrevalorado, ya que no estaba obteniendo (ni Nvidia) nada parecido a ese tipo de ingresos. ATI tampoco tenía sitios de fabricación; su valor se basaba casi en su totalidad en la propiedad intelectual.

AMD finalmente reconoció este error cuando absorbió 2.650 millones de dólares en amortizaciones debido a la sobreestimación de la valoración del fondo de comercio de ATI.

Para agravar la falta de previsión de la gestión, Imageon , la división de gráficos portátiles de ATI, se vendió a Qualcomm en un insignificante acuerdo de $ 65 millones. Esa división ahora se llama Adreno, un anagrama de “Radeon” y un componente integral del Snapdragon SoC ( !).

Xilleon , un SoC de 32 bits para TV digital y decodificadores de TV por cable, fue enviado a Broadcom por 192,8 millones de dólares.

Además de gastar dinero, la respuesta final de AMD a la arquitectura renovada de Intel fue claramente decepcionante. Dos semanas después del lanzamiento de Core 2, el presidente y director de operaciones de AMD, Dirk Meyer, anunció la finalización del nuevo procesador K10 Barcelona de AMD. Este sería su movimiento decisivo en el mercado de servidores, ya que era una CPU de cuatro núcleos en toda regla, mientras que en ese momento, Intel solo producía chips Xeon de doble núcleo.

El nuevo chip Opteron apareció en septiembre de 2007, con mucha fanfarria, pero en lugar de robarle el estruendo a Intel, la fiesta se detuvo oficialmente con el descubrimiento de un error que, en raras circunstancias, podría provocar bloqueos al involucrar escrituras de caché anidadas. Raro o no, el error TLB detuvo la producción de K10 de AMD; Mientras tanto, un parche de BIOS que solucionara el problema en los procesadores salientes, lo haría con una pérdida de rendimiento de aproximadamente el 10%. Para cuando las CPU revisadas ‘B3 paso a paso’ se enviaron 6 meses después, el daño ya estaba hecho, tanto para las ventas como para la reputación.

Un año después, cerca de finales de 2007, AMD llevó el diseño K10 de cuatro núcleos al mercado de las computadoras de escritorio. Para entonces, Intel estaba avanzando y había lanzado el ahora famoso Core 2 Quad Q6600 . Sobre el papel, el K10 era el diseño superior: los cuatro núcleos estaban en el mismo troquel, a diferencia del Q6600, que usaba dos troqueles separados en el mismo paquete. Sin embargo, AMD estaba luchando por alcanzar las velocidades de reloj esperadas, y la mejor versión de la nueva CPU era de solo 2,3 GHz. Eso fue más lento, aunque en 100 MHz, que el Q6600, pero también un poco más caro.

Pero el aspecto más desconcertante de todo fue la decisión de AMD de presentar un nuevo nombre de modelo: Phenom . Intel cambió a Core porque Pentium se había convertido en sinónimo de precio y potencia excesivos, y con un rendimiento relativamente bajo. Por otro lado, Athlon era un nombre que los entusiastas de la informática conocían muy bien y tenía la velocidad para igualar su reputación. La primera versión de Phenom no fue realmente mala , simplemente no fue tan buena como el Core 2 Quad Q6600, un producto que ya estaba disponible, además de que Intel también tenía ofertas más rápidas en el mercado.

Curiosamente, AMD pareció hacer un esfuerzo consciente por abstenerse de publicidad. También tenían presencia cero en el lado del software del negocio; una forma muy curiosa de dirigir un negocio, por no hablar de una lucha en el comercio de semiconductores. Pero ninguna revisión de esta era en la historia de AMD estaría completa sin tener en cuenta las acciones anticompetitivas de Intel. En esta coyuntura, AMD no solo estaba luchando contra los chips de Intel, sino también contra las actividades monopolísticas de la compañía, que incluían pagar a los OEM grandes sumas de dinero (miles de millones en total) para mantener activamente las CPU de AMD fuera de las computadoras nuevas.

En el primer trimestre de 2007, Intel pagó a Dell $ 723 millones para seguir siendo el único proveedor de sus procesadores y conjuntos de chips, lo que representa el 76% de los ingresos operativos totales de la compañía de $ 949 millones. AMD luego ganaría un acuerdo de $ 1.25 mil millones en el asunto, sorprendentemente bajo en la superficie, pero probablemente exacerbado por el hecho de que en el momento de las travesuras de Intel, AMD en sí no podía suministrar suficientes CPU a sus clientes existentes.

No es que Intel necesitara hacer nada de esto. A diferencia de AMD, tenían un rígido establecimiento de objetivos a largo plazo, así como una mayor diversidad de productos e IP. También tenían reservas de efectivo como nadie más: al final de la primera década del nuevo milenio, Intel estaba obteniendo más de $ 40 mil millones en ingresos y $ 15 mil millones en ingresos operativos. Esto proporcionó enormes presupuestos para marketing, investigación y desarrollo de software, así como fundiciones adaptadas exclusivamente a sus propios productos y calendario. Solo esos factores aseguraron que AMD luchara por ganar participación de mercado.

Un sobrepago de miles de millones de dólares por ATI y el interés del préstamo correspondiente, un sucesor decepcionante del K8 y chips problemáticos que llegan tarde al mercado, fueron píldoras amargas para tragar. Pero las cosas estaban a punto de empeorar.

Un paso hacia adelante, uno hacia los lados, cualquier número hacia atrás

Para 2010, la economía mundial estaba luchando por recuperarse de la crisis financiera de 2008 . AMD había expulsado su sección de memoria flash unos años antes, junto con todas sus fundiciones de fabricación de chips; finalmente se convirtieron en GlobalFoundries , que AMD todavía usa para algunos de sus productos. Aproximadamente el 10% de su fuerza laboral había sido eliminada, y todos juntos los ahorros y la inyección de efectivo significaron que AMD podía esforzarse y concentrarse por completo en el diseño del procesador.

En lugar de mejorar el diseño del K10, AMD comenzó de nuevo con una nueva estructura y, hacia fines de 2011, se lanzó la arquitectura Bulldozer . Donde K8 y K10 eran verdaderos procesadores multinúcleo y multiproceso simultáneo (SMT), el nuevo diseño se clasificó como ‘multiproceso en clúster’.


Diseño de cuatro módulos de Bulldozer

AMD adoptó un enfoque modular compartido con Bulldozer: cada clúster (o módulo) contenía dos núcleos de procesamiento de enteros, pero no eran totalmente independientes. Compartieron la instrucción L1 y las cachés de datos L2, la recuperación / decodificación y la unidad de coma flotante. AMD incluso llegó a descartar el nombre de Phenom y recordar sus días de gloria del Athlon FX, simplemente nombrando las primeras CPU Bulldozer como AMD FX .

La idea detrás de todos estos cambios era reducir el tamaño total de los chips y hacerlos más eficientes energéticamente. Las matrices más pequeñas mejorarían los rendimientos de fabricación, lo que generaría mejores márgenes, y el aumento de la eficiencia ayudaría a impulsar las velocidades de reloj. El diseño escalable también lo haría adecuado para una gama más amplia de mercados.

El mejor modelo del lanzamiento de octubre de 2011, el FX-8510 , tenía 4 grupos, pero se comercializaba como una CPU de 8 núcleos y 8 subprocesos. En esta era, los procesadores tenían múltiples velocidades de reloj y la frecuencia base del FX-8150 era de 3.6 GHz, con un reloj turbo de 4.2 GHz. Sin embargo, el chip tenía un tamaño de 315 mm cuadrados y un consumo de energía máximo de más de 125 W. Intel ya había lanzado el Core i7-2600K: era una CPU tradicional de 4 núcleos y 8 subprocesos que funcionaba a una velocidad de hasta 3,8 GHz. Era significativamente más pequeño que el nuevo chip AMD, con 216 mm cuadrados, y consumía 30 W menos de energía.

Sobre el papel, el nuevo FX debería haber dominado, pero su rendimiento fue algo decepcionante : a veces, la capacidad de manejar muchos subprocesos brillaría, pero el rendimiento de un solo subproceso a menudo no era mejor que el rango Phenom que estaba listo para reemplazar. a pesar de las velocidades de reloj superiores.

Después de haber invertido millones de dólares en I + D de Bulldozer, AMD ciertamente no iba a abandonar el diseño y la compra de ATI ahora estaba comenzando a dar frutos. En la década anterior, la primera incursión de AMD en un paquete combinado de CPU y GPU, llamado Fusion, llegó tarde al mercado y fue decepcionantemente débil.

Pero el proyecto proporcionó a AMD los medios para abordar otros mercados. A principios de 2011, se lanzó otra nueva arquitectura, llamada Bobcat .


El chip CPU + GPU personalizado de AMD en PlayStation 4.

Dirigido a aplicaciones de bajo consumo, como sistemas integrados, tabletas y portátiles; también fue el diseño polar opuesto a Bulldozer: solo un puñado de tuberías y nada más. Bobcat recibió una actualización muy necesaria unos años más tarde, en la arquitectura de Jaguar , y fue seleccionado por Microsoft y Sony para impulsar la Xbox One y PlayStation 4 en 2013.

Aunque los márgenes de beneficio serían relativamente escasos, ya que las consolas normalmente se construyen al precio más bajo posible, ambas plataformas se vendieron por millones y esto destacó la capacidad de AMD para crear SoC personalizados.

AMD continuó revisando el diseño de la excavadora a lo largo de los años: Piledriver fue lo primero y nos dio el FX-9550 (una monstruosidad de 220 W y 5 GHz), pero Steamroller y la versión final, Excavator (lanzada en 2011, con productos que la usaron durante 4 años). más tarde), se centraron más en reducir el consumo de energía, en lugar de ofrecer algo particularmente nuevo.

Para entonces, la estructura de nombres de las CPU se había vuelto confusa, por decir lo menos. Phenom se había resignado durante mucho tiempo a los libros de historia, y FX tenía una reputación algo mala. AMD abandonó esa nomenclatura y acaba de etiquetar sus CPUs de escritorio excavadoras como la A-serie .

La sección de gráficos de la empresa, que comercializaba los productos Radeon, había tenido una suerte similar. AMD retuvo la marca ATI hasta 2010, cambiándola por la suya propia. También reescribieron completamente la arquitectura de GPU creada por ATI a finales de 2011, con el lanzamiento de Graphics Core Next (GCN). Este diseño duraría casi 8 años y llegaría a las consolas, PC de escritorio, estaciones de trabajo y servidores; todavía está en uso hoy como la GPU integrada en los llamados procesadores APU de AMD.


La primera aparición de Graphics Core Next: la Radeon HD 7970

Los procesadores GCN crecieron para tener un inmenso rendimiento de cómputo, pero la estructura no fue la más fácil para sacar el máximo provecho de ella. La versión más potente de AMD jamás creada, la GPU Vega 20 en la Radeon VII, contaba con 13.4 TFLOP de potencia de procesamiento y 1024 GB / s de ancho de banda, pero en los juegos, simplemente no podía alcanzar las mismas alturas que las mejores de Nvidia. .

Los productos Radeon a menudo tenían la reputación de ser calientes, ruidosos y muy hambrientos de energía. La iteración inicial de GCN, que alimentaba el HD 7970 , requería más de 200 W de potencia a plena carga, pero se fabricó en un nodo de proceso relativamente grande, los 28 nm de TSMC. Para cuando GCN alcanzó la madurez completa, en la forma de Vega 10, GlobalFoundries estaba fabricando los chips en su nodo de 14 nm, pero los requisitos de energía no eran mejores, ya que Radeon RX Vega 64 consumía un máximo de casi 300 W.

Si bien AMD tenía una selección de productos decente, simplemente no eran tan buenos como deberían haber sido y luchaban por ganar suficiente dinero.

A finales de 2016, el balance de la empresa había sufrido pérdidas durante 4 años consecutivos (las finanzas de 2012 se vieron afectadas por una cancelación final de GlobalFoundries de 700 millones de dólares). La deuda seguía siendo alta, incluso con la venta de sus fundiciones y otras sucursales, y ni siquiera el éxito del paquete del sistema en Xbox y PlayStation brindó suficiente ayuda.

A primera vista, AMD parecía estar en serios problemas.

Nuevas estrellas

Sin nada que vender y sin señales de grandes inversiones para salvarlos, AMD solo pudo hacer una cosa: duplicar y reestructurar. En 2012, eligieron a dos personas que llegarían a desempeñar un papel vital en el resurgimiento de la empresa de semiconductores.

Jim Keller, el antiguo arquitecto principal de la gama K8, había regresado después de una ausencia de 13 años y se dedicó a encabezar dos proyectos: uno un diseño basado en ARM para los mercados de servidores, el otro una arquitectura x86 estándar, con Mike Clark (líder diseñador de Bulldozer) siendo el arquitecto jefe.

Junto a él estaba Lisa Su, que había sido vicepresidenta sénior y directora general de Freescale Semiconductors. Ocupó el mismo puesto en AMD y, en general, se le atribuye, junto con el entonces presidente Rory Read, el responsable del movimiento de la compañía hacia mercados más allá de la PC, especialmente las consolas.


Lisa Su (centro) y Jim Keller (extremo derecho)

Dos años después de la restauración de Keller en la sección de I + D de AMD, el CEO Rory Read renunció y la vicepresidente ejecutiva / gerente general ascendió. Con un doctorado en ingeniería electrónica del MIT y habiendo realizado una investigación sobre MOSFETS SOI ( silicio sobre aislante ), Su tenía la formación académica y la experiencia industrial necesaria para que AMD regresara a sus días de gloria. Pero no sucede nada de la noche a la mañana en el mundo de los procesadores a gran escala: los diseños de chips tardan varios años, en el mejor de los casos, antes de que estén listos para el mercado. AMD tendría que enfrentarse a la tormenta hasta que esos planes pudieran hacerse realidad.

Mientras AMD seguía luchando, Intel iba viento en popa. Los nodos del proceso de fabricación y arquitectura Core habían madurado muy bien y, a finales de 2016, registraron unos ingresos de casi 60.000 millones de dólares. Durante varios años, Intel había estado siguiendo un enfoque de ‘ tic-tac ‘ para el desarrollo de procesadores: un ‘ tic ‘ sería una nueva arquitectura, mientras que un ‘ tock ‘ sería un refinamiento del proceso, típicamente en la forma de un nodo más pequeño. .

Sin embargo, no todo fue bien entre bastidores, a pesar de las enormes ganancias y el dominio casi total del mercado. En 2012, Intel esperaba lanzar CPU en un nodo de 10 nm de vanguardia en 3 años. Ese toc en particular nunca sucedió; de hecho, el reloj tampoco hizo tictac en realidad . Su primera CPU de 14 nm, con la arquitectura Broadwell , apareció en 2015 y el nodo y el diseño fundamental permanecieron en su lugar durante media década.

Los ingenieros de las fundiciones enfrentaron repetidamente problemas de rendimiento con 10 nm, lo que obligó a Intel a refinar el proceso y la arquitectura más antiguos cada año. Las velocidades de reloj y el consumo de energía aumentaron cada vez más, pero no se presentaron nuevos diseños; un eco, quizás, de sus días en Netburst. Los clientes de PC se quedaron con opciones frustrantes: elegir algo de la poderosa línea Core, pero pagar un precio elevado, o elegir la serie FX / A, más débil y barata.

Pero AMD había estado construyendo silenciosamente un juego de cartas ganador y jugó su mano en febrero de 2016, en el evento anual E3. Utilizando el tan esperado reinicio de Doom como plataforma de anuncios, se reveló al público la arquitectura Zen completamente nueva .

Se dijo muy poco sobre el nuevo diseño, además de frases como ‘multihilo simultáneo’, ‘caché de gran ancho de banda’ y ‘diseño finFET energéticamente eficiente’. Se dieron más detalles durante Computex 2016, incluido el objetivo de una mejora del 40% sobre la arquitectura de Excavator.

Decir que esto fue ambicioso sería quedarse corto, especialmente a la luz del hecho de que AMD había logrado, en el mejor de los casos, aumentos modestos del 10% con cada revisión del diseño del Bulldozer.

Les tomaría otros 12 meses antes de que apareciera el chip, pero cuando lo hizo, el plan de AMD fue finalmente claro.

Cualquier nuevo diseño de hardware necesita el software adecuado para venderlo, pero las CPU de subprocesos múltiples se enfrentaban a una batalla cuesta arriba. A pesar de que las consolas tienen CPU de 8 núcleos, la mayoría de los juegos seguían funcionando perfectamente con solo 4. Las principales razones eran el dominio del mercado de Intel y el diseño del chip de AMD en Xbox One y PlayStation 4. El primero había lanzado su primera CPU de 6 núcleos . en 2010, pero fue enormemente caro (casi $ 1,100). Otros aparecieron rápidamente, pero pasarían otros siete años antes de que Intel ofreciera un procesador hexa-core verdaderamente asequible, el Core i5-8400 , por menos de $ 200.

El problema con los procesadores de consola era que el diseño de la CPU consistía en dos CPU de 4 núcleos en el mismo dado y había una alta latencia entre las dos secciones del chip. Por lo tanto, los desarrolladores de juegos tendían a mantener los hilos del motor ubicados en una de las secciones y solo usaban la otra para procesos generales en segundo plano. Solo en el mundo de las estaciones de trabajo y los servidores había una necesidad de CPUs con múltiples subprocesos, hasta que AMD decidió lo contrario.

En marzo de 2017, los usuarios de escritorio en general podían actualizar sus sistemas con una de las dos CPU de 8 núcleos y 16 subprocesos. Una arquitectura completamente nueva claramente merecía un nuevo nombre, y AMD se deshizo de Phenom y FX para darnos Ryzen .

Ninguna CPU era particularmente barata: el Ryzen 7 1800X de 3.6 GHz (aumento de 4 GHz) se vendió al por menor a $ 500, y el 1700X de 0.2 GHz más lento se vendió por $ 100 menos. En parte, AMD estaba ansioso por detener la percepción de ser la opción económica, pero se debía principalmente a que Intel estaba cobrando más de $ 1,000 por su oferta de 8 núcleos, el Core i7-6900K .

Zen tomó lo mejor de todos los diseños anteriores y los fusionó en una estructura que se enfocaba en mantener las tuberías lo más ocupadas posible; y para hacer esto, se requirieron mejoras significativas en los sistemas de canalización y caché. El nuevo diseño eliminó el uso compartido de cachés L1 / L2, como se usaba en Bulldozer, y cada núcleo ahora era completamente independiente, con más canalizaciones, mejor predicción de ramas y mayor ancho de banda de caché.

Con reminiscencias del chip que alimenta las consolas de Microsoft y Sony, la CPU Ryzen también era un sistema en un chip; lo único que le faltaba era una GPU (los modelos económicos posteriores de Ryzen incluían un procesador GCN).

La matriz se dividió en dos denominados complejos de CPU (CCX), cada uno de los cuales era de 4 núcleos y 8 subprocesos. También se incluyó en la matriz un procesador Southbridge: la CPU ofrecía controladores y enlaces para PCI Express, SATA y USB. Esto significaba que las placas base, en teoría, podían fabricarse sin SB, pero casi todas lo hacían, solo para ampliar la cantidad de posibles conexiones de dispositivos.

Todo esto sería en vano si Ryzen no pudiera funcionar, y AMD tenía mucho que demostrar en esta área después de años de ser el segundo violín de Intel. El 1800X y el 1700X no eran perfectos : tan buenos como los que tenía Intel para aplicaciones profesionales, pero más lentos en juegos.

AMD tenía otras cartas para jugar: un mes después de que las primeras CPU Ryzen llegaran al mercado, aparecieron los modelos Ryzen 5 de 6 y 4 núcleos , seguidos dos meses después por los chips Ryzen 3 de 4 núcleos . Se desempeñaron frente a las ofertas de Intel de la misma manera que sus hermanos mayores, pero fueron significativamente más rentables.

Y luego vinieron los ases: el Ryzen Threadripper 1950X de 16 núcleos y 32 hilos (con un precio inicial de $ 1,000) y el procesador EPYC de 32 núcleos y 64 hilos para servidores. Estos gigantes comprendían dos y cuatro chips Ryzen 7 1800X, respectivamente, en el mismo paquete, utilizando el nuevo sistema de interconexión Infinity Fabric para cambiar datos entre los chips.

En el espacio de seis meses, AMD demostró que se estaban dirigiendo de manera efectiva a todos los mercados de computadoras de escritorio x86 posibles, con un diseño único que se adapta a todos.

Un año después, la arquitectura se actualizó a Zen +, que consistió en ajustes en el sistema de caché y el cambio del venerable proceso 14LPP de GlobalFoundries, un nodo que estaba debajo de Samsung, a un sistema 12LP actualizado y más denso. Las matrices de la CPU se mantuvieron del mismo tamaño, pero el nuevo método de fabricación permitió que los procesadores funcionaran a velocidades de reloj más altas.

Otros 12 meses después de eso, en el verano de 2019, AMD lanzó Zen 2 . Esta vez los cambios fueron más significativos y el término chiplet se puso de moda. En lugar de seguir una construcción monolítica, donde cada parte de la CPU está en la misma pieza de silicio (lo que hacen Zen y Zen +), los ingenieros se separaron en los Core Complexes del sistema de interconexión.

Los primeros fueron construidos por TSMC, utilizando su proceso N7, convirtiéndose en matrices completas por derecho propio, de ahí el nombre Core Complex Die (CCD). La estructura de entrada / salida fue realizada por GlobalFoundries, con modelos Ryzen de escritorio que usan un chip 12LP, y Threadripper y EPYC con versiones más grandes de 14 nm.


Imágenes infrarrojas de un Zen 2 Ryzen y EPYC. Los chiplets CCD están claramente separados del chip de E / S.

El diseño de chiplet se conservará y perfeccionará para Zen 3, actualmente escrito para su lanzamiento a fines de 2020. No es probable que veamos que los CCD rompan el diseño de 8 núcleos y 16 hilos de Zen 2, en cambio, será una mejora similar a la visto con Zen + (es decir, mejoras en la memoria caché, la eficiencia energética y la velocidad del reloj).

Vale la pena hacer un balance de lo que AMD logró con Zen. En el espacio de 8 años, la arquitectura pasó de una hoja de papel en blanco a una cartera completa de productos, que contenía ofertas de presupuesto de $99 de 4 núcleos y 8 subprocesos hasta $ 4,000 + CPU de servidor de 64 núcleos y 128 subprocesos.

Las finanzas de AMD también han cambiado drásticamente: de pérdidas y deudas que ascienden a miles de millones, AMD está ahora en camino de liquidar sus préstamos y registrar un ingreso operativo de más de $600 millones, dentro del próximo año. Si bien el Zen puede no ser el único factor en la reactivación financiera de la empresa, ha ayudado enormemente.

La división de gráficos de AMD ha experimentado cambios similares en la fortuna: en 2015, la sección recibió total independencia, como Radeon Technologies Group (RTG). El desarrollo más significativo de sus ingenieros llegó en forma de RDNA, una reelaboración significativa de GCN. Los cambios en la estructura de la caché, junto con los ajustes en el tamaño y la agrupación de las unidades de cómputo, cambiaron el enfoque de la arquitectura directamente hacia los juegos.

Los primeros modelos en utilizar esta nueva arquitectura, la serie Radeon RX 5700 , demostraron el gran potencial del diseño. Esto no pasó desapercibido para Microsoft y Sony, ya que ambos seleccionaron Zen 2 y la RDNA 2 actualizada , para impulsar sus próximas nuevas consolas Xbox y PlayStation 5 .

Aunque Radeon Group no ha disfrutado del mismo nivel de éxito que la división de CPU, y sus tarjetas gráficas quizás todavía se ven como la “opción de valor”, AMD ha vuelto cuantificablemente a donde estaba en los 64 días de Athlon en términos de arquitectura. desarrollo e innovación tecnológica. Subieron a la cima, cayeron en desgracia y, como una bestia de la mitología, crearon su propio renacimiento de las cenizas.

Mirando hacia adelante con precaución

Es perfectamente adecuado hacer una pregunta simple sobre AMD: ¿podrían regresar a los días oscuros de productos pésimos y sin dinero?

Incluso si 2020 demuestra ser un año excelente para AMD y los resultados financieros positivos del primer trimestre muestran una mejora del 40% con respecto al año anterior, $ 9.4 mil millones de ingresos aún los colocan detrás de Nvidia ($ 10.7 mil millones en 2019) y a años luz de Intel ($ 72 mil millones). ). Este último tiene una cartera de productos mucho más grande, por supuesto, y sus propias fundiciones, pero los ingresos de Nvidia dependen casi por completo de las tarjetas gráficas.


Los más vendidos de AMD

Está claro que tanto los ingresos como los ingresos operativos deben crecer para estabilizar completamente el futuro de AMD, entonces, ¿cómo podría lograrse esto? La mayor parte de sus ingresos proviene de lo que ellos llaman el segmento de Computación y Gráficos, es decir, ventas de Ryzen y Radeon. Sin duda, esto seguirá mejorando, ya que Ryzen es muy competitivo y la arquitectura RDNA 2 proporcionará una plataforma común para juegos que funcionan tan bien en PC como en consolas de próxima generación.

Las últimas CPU de escritorio de Intel tienen una ventaja cada vez menor en los juegos . También carecen de la amplitud de funciones que ofrecerá Zen 3. Nvidia ostenta la corona de rendimiento de GPU, pero se enfrenta a una dura competencia en el sector de gama media de Radeons. Quizás no sea más que una coincidencia, pero a pesar de que RTG es una división totalmente independiente de AMD, sus ingresos e ingresos operativos se agrupan con el sector de CPU, lo que sugiere que sus tarjetas gráficas, aunque son populares, no se venden en las mismas cantidades. como lo hacen sus productos Ryzen.

Posiblemente, un problema más urgente para AMD es que su segmento Enterprise, Embedded y Semi-Custom representó poco menos del 20% de los ingresos del primer trimestre de 2020 y tuvo pérdidas operativas. Esto puede explicarse por el hecho de que las ventas de Xbox y PlayStation de la generación actual se han estancado, a la luz del éxito de Switch de Nintendo y los próximos modelos nuevos de Microsoft y Sony. Intel también ha dominado por completo el mercado empresarial y nadie que ejecute un centro de datos de varios millones de dólares lo va a tirar todo, solo porque una nueva CPU increíble está disponible.


La Nvidia DGX A100, con dos procesadores AMD EPYC de 64 núcleos

Pero esto podría cambiar en los próximos años, en parte a través de las nuevas consolas de juegos, pero también a partir de una alianza inesperada. Nvidia, de todas las empresas, eligió AMD en lugar de Intel como la elección de CPU para sus nuevos clústeres de computación de aprendizaje profundo / IA, el DGX 100 . La razón es sencilla: el procesador EPYC tiene más núcleos y canales de memoria, y carriles PCI Express más rápidos que cualquier cosa que Intel pueda ofrecer.

Si Nvidia está feliz de usar los productos de AMD, otros seguramente seguirán su ejemplo. AMD tendrá que seguir escalando una montaña empinada, pero hoy parece que tienen las herramientas adecuadas para el trabajo. A medida que TSMC continúa ajustando y refinando su nodo de proceso N7, todos los chips AMD fabricados con el proceso también serán incrementalmente mejores.

De cara al futuro, hay algunas áreas dentro de AMD que podrían necesitar una mejora genuina. Una de esas áreas es el marketing. El eslogan y el jingle de ‘Intel Inside’ han sido omnipresentes durante más de 30 años, y aunque AMD gasta algo de dinero en la promoción de Ryzen, en última instancia, necesitan fabricantes como Dell, HP y Lenovo para vender unidades con sus procesadores con la misma luz y especificaciones. como hacen con Intel.

Por el lado del software, se ha trabajado mucho en aplicaciones que mejoran la experiencia de los usuarios, como Ryzen Master , pero fue recientemente que los controladores Radeon estaban teniendo problemas generalizados . Los controladores de juegos pueden ser enormemente complejos, pero su calidad puede hacer o deshacer la reputación de una pieza de hardware.

AMD se encuentra actualmente en la posición más sólida que jamás haya tenido en sus 51 años de historia. Dado que el ambicioso proyecto Zen no muestra signos de llegar a ningún límite pronto, el renacimiento de la compañía al estilo del fénix ha sido un gran éxito. Sin embargo, no están en la cima de la montaña, y quizás para mejor. Se dice que la historia siempre se repite, pero esperemos que esto no suceda. Un AMD saludable y competitivo, totalmente capaz de enfrentarse a Intel y Nvidia de frente, solo brinda beneficios a los usuarios.

Una respuesta a «El ascenso, caída y resurgimiento de AMD»

  1. Por lo visto en el mundo tecnológico empresarial hay que ser constantes, dialécticos, innovadores, arriesgados, minuciosos y colaborativos.

    Esto ha de aplicarse a casi todos los campos de la vida.

    Mucho trabajo y mucha constancia muchos puntos de enfoque para dar en el clavo y poder enfocar al usuario final sobre lo que se le propone para que este decida al final.

    Y un artículo muy explicativo de lo que siempre opiné de AMD.

    Espero que vayan a más.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *