Resumen del año 2018 de AnandTech: GPUs

El 2018 casi ha llegado a su fin y, como ya nos estamos preparando para el evento que inicia el 2019 para la industria, el mega espectáculo que es el CES, queríamos pasar un último momento repasando los altibajos de la industria de la tecnología en 2018. Entonces, ya sea que haya estado fuera del circuito por un tiempo y esté tratando de ponerse al día, o simplemente después de un breve resumen del año anterior y un vistazo al año que viene, está en el lugar adecuado para el AnandTech Year in Review.

Mercado de GPU: Auge, Caída y Ruptura

Para bien o para mal, con mucho, la historia principal en el espacio de la GPU para 2018 es la última subida y caída de los mercados de criptomonedas. Si bien el espacio de la GPU no es en absoluto ajeno a la rareza que rompe el mercado que tiene la minería de la criptomoneda en los precios de la GPU, ya hemos pasado por esto un par de veces: el último ciclo fue el mayor auge y la mayor caída hasta el momento. Y, como resultado, ha tenido inmensas repercusiones en la industria que se desarrollarán bien en 2019.

Si bien el último ciclo ya estaba en marcha antes de que comenzara el 2018, alcanzó su punto máximo justo a principios de año. De hecho, ahí es cuando la propia cyptocurrencia de Ethereum, la criptomoneda predominante para las GPU, alcanzó su precio récord de cierre de todos los tiempos de $1396 / token. Como resultado, la demanda de GPU para los primeros ocho meses del año no tuvo precedentes, lo que fue una bendición para algunos y un problema para muchos otros.

Durante la mayor parte de las tres cuartas partes, AMD y NVIDIA podrían vender virtualmente hasta la última GPU que produjeron, y algunas compañías ansiosas se dirigieron directamente a la fuente para tratar de asegurar tableros y GPU para ampliar sus operaciones mineras. Como resultado, los precios de las tarjetas de video se dispararon – del número limitado de tarjetas para llegar al mercado, fueron recogidas por los mineros con la misma rapidez – lo que benefició enormemente a los proveedores de tableros y a los proveedores de GPU, pero puso un gran problema en los juegos . De hecho, las tarjetas de juego asequibles fueron las más afectadas por esta demanda, ya que su relación precio / rendimiento relativamente alta significaba que, por todas las razones por las que eran buenos para jugar, también lo eran para la minería. Cuando hay dinero para hacer, una Radeon RX 580 (MSRP: $229) todavía encontrará compradores, incluso a $370.

Sin embargo, con cada auge viene una quiebra, y el último avance en el precio de Ethereum no fue diferente. Después de alcanzar un pico a principios de año, el precio de la criptomoneda continuó con una tendencia a la baja durante todo el año, reduciendo la rentabilidad de la extracción de GPU. Esto se vio agravado por la introducción de los ASIC dedicados de Ethereum, que aunque requerían su propio espacio fabuloso para producir y componentes (por ejemplo, RAM) para ir con ellos, alivió parte de la demanda de tarjetas de video para minería. En última instancia, la caída de Ethereum por debajo de $ 300 / token en agosto puso fin al último auge, y en el último mes los precios cayeron por debajo de $ 100 / token, mientras que la rentabilidad de la minería, incluso con las tarjetas de video más eficientes, a veces se ha tornado negativa.

Como resultado, solo en los últimos meses los precios de las tarjetas de video han regresado a sus precios razonables y esperados. De hecho, el período del Viernes Negro al Lunes Cibernético de este año fue especialmente sólido, ya que los RX 580 costaban tan solo $ 169, muy lejos de lo que eran 6 meses antes. Puede que el mercado todavía no esté completamente arreglado, pero las buenas tarjetas de video finalmente son asequibles nuevamente.

Dicho esto, como hemos aprendido desde sus recientes anuncios de ganancias, la ruptura en los precios de las tarjetas de video no se debe solo a una caída en la demanda. Tanto AMD como NVIDIA incrementaron sus órdenes de producción de GPU para tratar de aprovechar este período de auge extendido. Y, a juzgar por los problemas de inventario a los que se enfrentan ahora, ambos se han quemado. A pesar del auge de la demanda de GPU y el aumento de los ingresos y las ganancias que se derivaron, ambas compañías ahora están en una pequeña caída, ya que han acumulado una cantidad considerable de GPU que llegaron justo cuando la demanda realmente disminuyó. Como resultado, ambas compañías están intentando descargar su inventario a un ritmo controlado, vendiéndolo en lotes limitados para evitar inundar el mercado y estrellar los precios de las tarjetas de video por completo. El mercado de la criptomoneda es casi imposible de predecir, y los proveedores de hardware en particular están atrapados en el punto difícil: no hacer nada y dejar que la criptomoneda rompa el mercado por tiempo indefinido, o tratar de reaccionar y arriesgarse a tener un exceso de inventario cuando el mercado lo necesita.

Pero por el momento, con la mayor parte de la cordura restaurada al mercado de las tarjetas de video, hay un lado positivo: ¡tarjetas baratas! Junto con las ventas frecuentes de nuevas tarjetas, el mercado de segunda mano también está cada vez más lleno de tarjetas de video de mineros y especuladores que están descargando sus equipos e inventario, incluso si esto se presenta como una pérdida. Así que para los compradores que están dispuestos a arriesgarse un poco más, ahora es un buen momento para obtener una tarjeta de video de última generación por un buen precio.

La memoria GDDR6 golpea la escena
Dejando de lado los problemas de mercado y precios de GPU, 2018 también fue un año importante en el frente de la tecnología. Después de años de planificación, GDDR6, la próxima generación de memoria para GPU y otros procesadores de alto rendimiento, finalmente alcanzó la producción en masa y llegó al mercado. Este es un desarrollo especialmente importante para las tarjetas de gama media, ya que estos productos nunca han tenido acceso a tecnologías de memoria más exóticas como GDDR5X y HBM.

GDDR6 sigue los pasos tanto del GDDR5 de larga duración como del GDDR5X más reciente. La primera vez que se introdujo en tarjetas de video en 2008, hace ya toda la vida de la industria de GPU, GDDR5 ha sido la columna vertebral de la mayoría de las tarjetas de video en la última década. Se ha llevado a frecuencias mucho mayores de lo que JEDEC había planeado originalmente, con las primeras tarjetas lanzándose con velocidades de datos de 3.6 Gbps, mientras que las tarjetas más recientes se enviaron a 8 y 9 gbps. Y mientras GDDR5X intentó continuar donde GDDR5 se quedó en 2016, la falta de adopción fuera de Micron significó que nunca tuvo la tracción necesaria para reemplazar a su ubicuo predecesor.

GDDR6, por otro lado, no tiene tales problemas. Los proveedores de memoria Big 3 (SK Hynix, Samsung y Micron) están produciendo la memoria. Y mientras que los precios siguen siendo altos como tecnología temprana (no espere que el GDDR5 desaparezca de la noche a la mañana), GDDR6 está preparado para convertirse en la nueva red troncal de la industria de la memoria de GPU.

En general, GDDR6 introduce un trío de mejoras clave que saltan la tecnología de memoria por delante de GDDR5. En el frente de señalización, utiliza la señalización de velocidad de datos cuádruple (QDR) en lugar de la señalización de velocidad de datos doble (DDR). Con el doble de bombas de señal por reloj que antes, el bus de memoria del GDDR6 puede alcanzar las velocidades de datos necesarias a velocidades de reloj más bajas, lo que lo hace más eficiente y más fácil de implementar que un bus DDR con mayor velocidad de reloj, aunque no sin algunos problemas de integridad de la señal.

El segundo gran cambio es cómo se organiza la memoria y cómo se recopilan los datos: en lugar de un chip que tiene un solo canal ancho de 32 bits con un prefetch 8n, GDDR6 lo divide en un par de canales anchos de 16 bits, cada uno con un 16n prefetch . Esto duplica efectivamente la cantidad de datos que se envían al bus de memoria en cada ciclo de reloj de memoria, lo que hace coincidir la mayor capacidad del bus y permite mayores velocidades de datos fuera de la memoria sin aumentar la frecuencia de reloj central de la propia memoria.

Finalmente, GDDR6 una vez más baja el voltaje de operación de la memoria. Mientras que GDDR5 generalmente funcionaba a 1.5v, el voltaje estándar para GDDR6 es 1.35v. El ahorro real de energía es un poco difícil de cuantificar aquí, ya que el consumo de energía también depende del controlador de memoria utilizado, pero en general esperamos ver aumentos significativos en el ancho de banda con un aumento mínimo en el consumo de energía tanto con los proveedores de GPU como con los fabricantes de controladores de red. y otros usuarios de GDDR, para el caso.

Actualmente, GDDR6 está disponible en velocidades de hasta 14 Gbps, y el estándar también permite velocidades más rápidas. Samsung ya está hablando de hacer memoria de 18Gbps, y si termina siendo tan duradero como su predecesor, el GDDR6 sin duda irá más rápido que eso. Mientras tanto, será interesante ver dónde cae la línea entre GDDR6 y HBM2 en el próximo año o dos; La velocidad de GDDR6 socava un poco las ventajas de HBM2, pero esta última tecnología de memoria recientemente vio su propio aumento de ancho de banda y capacidad , por lo que aún puede ser utilizada como una opción de gama alta, especialmente en productos con espacio limitado, como aceleradores en zócalos.

NVIDIA Turing se convierte en trazado de rayos
El evento tentpole de la industria de GPU es, por supuesto, el lanzamiento de una nueva arquitectura y sus chips, y 2018 no decepcionó. Durante el verano, NVIDIA lanzó su arquitectura GPU Turing y con ella su nueva serie de tarjetas de video GeForce RTX 20 .

Turing en sí es una bestia interesante, ya que NVIDIA usó la nueva arquitectura para revisar partes de sus diseños y para introducir nuevas características por completo. La arquitectura central de GPU es esencialmente un derivado de Volta con características adicionales; Esta es una distinción notable, ya que si bien Volta ha estado disponible en servidores como Tesla V100 desde mediados de 2017, nunca llegó al mercado de consumo. Desde el punto de vista del consumidor, Turing es la actualización más grande para la arquitectura de GPU central de NVIDIA desde el lanzamiento de Maxwell (1) hace más de cuatro años y medio.

Si bien es mejor dejar la profundidad de lo que conlleva la arquitectura central de Turing para Turing Deep Dive de Nate Oh, en resumen, la nueva arquitectura optimiza aún más el rendimiento y el flujo de trabajo de NVIDIA mediante la reorganización del diseño de un SM individual, y por primera vez (por primera vez). parte del consumidor) rompiendo las unidades enteras en su propio bloque de ejecución. El resultado neto es que un solo Turing SM ahora está compuesto por 4 bloques de procesamiento, cada uno con 16 núcleos FP y 16 núcleos INT. El beneficio de este cambio es que permite que las instrucciones de enteros se ejecuten más fácilmente junto con las instrucciones de punto flotante, mientras que anteriormente las dos ocupaban la misma ranura. Mientras tanto, NVIDIA también actualizó el sistema de caché, introduciendo un caché de instrucciones L0 para alimentar mejor todos sus núcleos.

Con todo lo dicho, resulta que la mejora de la característica de marquee para Turing no es ni siquiera parte de la arquitectura informática central de la GPU, sino que es un hardware completamente nuevo: todo lo que NVIDIA necesita para acelerar el trazado de rayos en una GPU. Considerado durante mucho tiempo como el santo grial de los gráficos debido a su precisión y calidad, y durante mucho tiempo fuera del alcance de las GPU debido a sus absurdos requisitos de rendimiento, las GPU finalmente están llegando al punto en el que son lo suficientemente rápidas para mezclar el trazado de rayos con la rasterización tradicional para Mejorando los gráficos de forma medida.

Turing a su vez introduce dos nuevas unidades de hardware (relativas a Pascal) para lograr esto. Lo primero es lo que NVIDIA llama un núcleo RT, que es su bloque de hardware para calcular realmente las intersecciones de rayos más importantes. La segunda unidad de hardware son los núcleos tensoriales, que en realidad son otro remanente de Volta. Los núcleos tensoriales sobresalen en la ejecución de redes neuronales, y si bien tienen muchos propósitos, como se demostró con los aceleradores Tesla de NVIDIA, para el trazado de rayos, su propósito es ayudar a suavizar la salida aproximada del proceso de trazado de rayos en sí. Al aplicar un modelo de red neuronal a la salida granulada inicial de la unidad de rastreo de rayos, NVIDIA puede ahorrar una gran cantidad de trabajo computacional costoso al disparar muchos menos rayos de los que de otro modo sería necesario para una imagen limpia con trazado de rayos.

Sinceramente, los resultados de todo este esfuerzo de rastreo de rayos se han mezclado un poco ahora, ya que todavía estamos en los primeros días de la tecnología. Microsoft solo anunció el estándar DXR a principios de este año, y los primeros juegos con características de trazado de rayos a penas están saliendo, lo que significa que los desarrolladores no han tenido mucho tiempo para integrar y optimizar la tecnología. La mejora de la calidad de la imagen resultante no es una diferencia de la noche a la mañana, lo que dificulta que NVIDIA venda rápidamente a los consumidores la idea. Pero esperamos ver el nivel de integración y el rendimiento resultante para mejorar con el tiempo, a medida que los desarrolladores de juegos se familiaricen mejor con la tecnología y como y para qué utilizarla.

Mientras tanto, mientras que la serie GeForce RTX 20 es un paso importante respecto a sus características previas, las mejoras de rendimiento resultantes en cada segmento de precios son mucho más pequeñas de lo que solemos ver en el lanzamiento de una nueva arquitectura de GPU. Un RTX 2070 de $ 500 es solo un 10% más rápido que lo que era un GTX 1080 de $ 500, a diferencia del 50% más de los años pasados. Hay algunas razones por las que las tarjetas más recientes no han movido significativamente la aguja en las relaciones de precio a rendimiento, pero los factores más importantes son que los transistores asignados a las características RT de Turing no se pueden usar para la rasterización tradicional, lo que significa que agregan nada para el rendimiento de los juegos existentes, y porque NVIDIA está controlando cuidadosamente los precios de la GPU para hacer frente a los problemas de inventario mencionados anteriormente. Mientras NVIDIA esté en las GPU Pascal restantes para vender, no tendrán prisa en vender las GPU Turing a precios bajos.

En cuanto a las tarjetas individuales, en este momento hemos visto el lanzamiento de tres tarjetas de consumo: RTX 2070 , RTX 2080 y RTX 2080 Ti , junto con el Titan RTX más profesional. Incluso con la tarjeta Turing más barata por $ 500 y las variantes móviles que no se encuentran en ninguna parte, no creo que NVIDIA haya terminado de implementar su serie RTX 20 todavía.

El increíble encogimiento Polaris

Mientras AMD se encuentra entre las arquitecturas de GPU para 2018, Vega se lanzó el año pasado y Navi se lanzará en 2019. AMD no ha pasado el año completamente inactivo. El otro hijo de la compañía, la arquitectura del caballo de batalla que es Polaris, recibió un encogimiento de matices un tanto extraño.

Este otoño, AMD comenzó a distribuir Polaris 30, una versión de Polaris 10 que se basa en el proceso de 12nm del socio de larga data GlobalFoundries. En la práctica, el tamaño del troquel de Polaris 30 no es más pequeño que el de Polaris 10 (oficialmente, AMD lo muestra en el mismo 232 mm 2 que Polaris 10). Sin embargo, AMD ha aprovechado las mejoras de rendimiento generales del proceso de 12 nm para dar al diseño del Polaris 10 un rendimiento aumentado más tardío.

Junto con el lanzamiento de Polaris 30 está la Radeon RX 590 , que es la primera (y hasta ahora, única) tarjeta de video que usa la nueva GPU. Al aprovechar al máximo el rendimiento (y lanzar la eficiencia energética), AMD ha logrado reunir el rendimiento suficiente para sacar adelante de manera constante y convincente a la GeForce GTX 1060 de 6GB, la competencia verde de la RX 480/580 durante los últimos dos años. . Sin duda, el aumento en el rendimiento resultante no es muy grande, ganando un promedio del 12% con respecto al RX 580. Pero esto es suficiente para mantenerlo por delante de la GeForce GTX 1060 en aproximadamente un 9%. Y dado el volumen relativamente alto de tarjetas que se venden en este segmento de mercado convencional, es una importante victoria para AMD y debería ser un buen impulso moral para el grupo de GPU después de que la familia Radeon RX Vega no llegara a donde AMD quería.

La captura por ahora con Polaris 30 / RX 590 es la fijación de precios, especialmente en vista de las numerosas ventas de RX 580 que ya están en marcha. AMD lanzó la tarjeta a $ 279, y ahí es donde permanece hasta el día de hoy. Y aunque es más rápido que el GTX 1060, también tiene un precio muy por delante del RX 580 (que generalmente se encuentra en $ 199) que el RX 580 sirve como un spoiler para el RX 580. Lo cual, si nada más, ayuda a mover las tarjetas RX 580, pero no lo hace. No le hagas ningún favor al RX 590.
Compre Sapphire Radeon Nitro + RX 590 en Amazon.com

Intel va a Xe
Por último, pero no menos importante, tenemos Intel. El equipo azul se encuentra actualmente en medio de un extenso proceso para convertirse en el tercer proveedor de GPU en la industria, un proceso que comenzó con la contratación de Raja Koduri de AMD a fines de 2017 . En el momento en que la compañía también anunció que estarían desarrollando GPU discretas, y esos planes están empezando a encajar.

Para Intel, su 2018 consistió en diseñar sus planes futuros de GPU e ilustrar a los consumidores y socios por igual cómo van a pasar de los gráficos integrados de hoy a una gama de GPU integradas y discretas de arriba a abajo. Intel no tiene ningún hardware para mostrar en 2018 (ni siquiera lanzaron un nuevo iGPU este año), y más bien el enfoque de la compañía está en 2020, cuando se lanzará su nueva familia de GPU.

Anunciados en su evento del Día de la Arquitectura a principios de este mes, las GPU discretas de Intel se venderán bajo la marca Xe . No se ha publicado nada sobre la arquitectura en este momento, pero Intel pretende que Xe sea la base de varias generaciones de gráficos en el futuro. Xe también será una verdadera pila de principio a fin, con la compañía con la intención de usarla para todo, desde iGPUs hasta aceleradores de centros de datos como reemplazo de Xeon Phi (en sí misma una derivación del proyecto de GPU de Larrabee).

En última instancia, estamos hablando de una arquitectura de GPU que aún tiene más de un año de descanso, por lo que aún hay mucho tiempo para que los planes cambien y para que Intel haga una idea de cómo quieren manejar sus revelaciones de Xe. Pero está claro que la compañía ya no se conforma con quedarse al margen y dejar que el mercado de aceleradores de GPU de alto margen crezca a su alrededor. Por lo tanto, debería ser interesante ver cómo le va a Intel a saltar a un mercado que no ha visto a un competidor externo viable en más de 15 años.

Mirando hacia el futuro hasta 2019
Finalmente, rompamos la bola de cristal para echar un vistazo rápido a algunas de las cosas que deberíamos ver en 2019.

Más GPU nuevas de NVIDIA. Como la pila actual de productos de la serie GeForce RTX 20 se detiene en $500, necesitarán introducir nuevos productos para terminar de actualizar la línea de productos. La GeForce GTX 1060 en particular se debe a un sucesor, tanto por su importancia en la pila de productos de NVIDIA como por su tarjeta de video estándar de alto volumen, y por el desafío planteado por Radeon RX 590 de AMD. Podemos ver esto tan pronto como CES2019, donde NVIDIA está dando una presentación una vez más, pero si no está allí, entonces espero verlo dentro de poco.

Mientras tanto para AMD, 2019 será el año de Navi. AMD ha estado jugando sus cartas muy cerca de su pecho en este, y además del hecho de que se construirá en un proceso de 7 nm y utilizará una tecnología de memoria de próxima generación (probablemente GDDR6), poco más se ha dicho. Para cuando AMD lance Navi, Vega aparecerá con 2 años y Polaris 3, por lo que es posible que veamos a AMD hacer una actualización de principio a fin aquí para sincronizar todo. Sin embargo, también es igualmente posible que reemplacen primero el extremo superior (Vega) o el final inferior (Polaris) del mercado, ya que esto está más en línea con la forma en que AMD ha operado en la última media década.

El mayor comodín por un momento es lo que NVIDIA hace, si acaso, hace este año para aprovechar la producción de 7nm. Un reemplazo para GV100 en el extremo más alto es un candidato probable: los clientes del servidor pueden pagar el precio que viene con la producción de bajo margen, sin embargo, las partes de los consumidores son un poco más nebulosas. NVIDIA sorprendió a mucha gente al lanzar las piezas de 12nm Turing justo cuando 7nm estaba entrando en la producción en masa, obtener estas piezas en el mercado antes, pero desaprovechar las mejoras de densidad y eficiencia energética de 7nm en el proceso. Una actualización de generación media de 7 nm no está fuera de la imagen, sin embargo, NVIDIA no ha realizado una actualización como esa en casi una década. Pero, de nuevo, la situación actual de la fábrica no tiene paralelo; a medida que la Ley de Moore continúa desacelerándose, el ciclo de diseño de GPU estándar de 2 años y el ciclo de actualización fabuloso se están desincronizando cada vez más. Por lo tanto, se deben presentar buenos argumentos en ambos lados, y debería resultar interesante ver qué ruta toma finalmente NVIDIA para 2019.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *