Las recientemente lanzadas NVIDIA GeForce GTX 1660 Ti han sido tarjetas gráficas que nos sorprendieron a todos. Primero, por no haber sido esperadas por nadie y, segundo, por su gran relación de precio/rendimiento. Sin embargo, a pesar de tener un chip algo más grande que las de las AMD Radeon RX 590 y estar fabricadas en el mismo nodo de 12 nm, el nuevo modelo de NVIDIA es capaz de ser el doble de eficiente que el modelo de AMD Radeon. ¿A qué se debe esta diferencia?

La arquitectura Turing, al menos en su versión completa, ha resultado ser demasiado cara para la gran mayoría de los usuarios. Los precios de las tarjetas gráficas de la gama RTX, en su mayor parte, están bastante por encima de lo que los usuarios están dispuestos a gastar en ellas. Sin embargo, los modelos que montan los núcleos Turing recortados (que carecen, tanto de núcleos RT como de núcleos Tensor), si parecen estar tocando todas las teclas adecuadas con los mismos usuarios.

De entre los nuevos modelos, especialmente notable es el caso de la NVIDIA GeForce GTX 1660 Ti. Este nuevo modelo salió con un rendimiento bastante cercano a la de las ya difuntas GeForce GTX 1070, pero costando 100 euros menos en precio. De hecho, cuando llegó en marzo de 2019 al mercado, su precio de 300 euros provocó que, inmediatamente, el precio de su competidora más directa, la AMD Radeon RX 590 cayera desde los 320 euros que tenía en ese momento, a los 239.89 que tiene hoy.

La culpa la tiene la arquitectura GCN

El problema de la diferencia en rendimiento tan abultada que hay entre ambos modelos de tarjetas gráficas, a pesar que las GeForce GTX 1660 Ti poseen una die de mayor tamaño, estriba, aparte de las posibles mejoras que la propia NVIDIA haya podido introducir en su arquitectura Turing, en que la arquitectura GCN ya ha sobrepasado con mucho su vida útil.

Este modelo de arquitectura interna de AMD lleva en el mercado desde los tiempos de las AMD Radeon HD 7000. Es decir, hablamos del año 2012 y se ha venido usando, con actualizaciones y modificaciones, hasta las actuales AMD Radeon Vega VII. Esta arquitectura interna es muy antigua y requiere un gran volumen de transistores para desarrollar su trabajo. No solamente eso, sino que parece ser que la arquitectura Turing es más eficiente a la hora de no dejar a los transistores inactivos.

GCN nació como una arquitectura más completa y general en los aspectos gráfico y cómputo. Su potencia de cómputo es elevada y brilla en tareas altamente paralelas. Pero ha sido lastrada por la falta de software y bibliotecas para ser explotada con mas facilidad por los desarrolladores. Sin embargo, los proyectos que han dedicado el esfuerzo necesario han podido extraerle lo que son capaces. En los ultimos años AMD a invertido más en la parte de software para enmendar esto y ha ido dando frutos.

Si bien las arquitecturas de NVIDIA en su base son la misma desde Kepler (serie 600) a Pascal (serie 1000), han sido actualizadas mas seguido y a mayor profundidad. NVIDIA, luego del fiazco de su serie 500 (alto consumo, temperatura y poca eficiencia), se embarcó en una cruzada para enmendarlo, impulsada tambien por su introducción en el segmento de dispositivos móviles donde esto es tema de primer orden. La serie 600 trajo un mejor nivel de eficiencia, pero el desarrollo real apareció con las 900.

También es verdad que el Hardware Scheduler que emplea AMD Radeon en sus tarjetas gráficas lleva años sin haber sido renovado, mientras que el scheduler que emplea NVIDIA es bastante más eficiente en su función, estando mayormente basado en el driver desde la serie 900. Esto aumenta la latencia de la asignacion de operaciones pero reduce la complejidad del hardware y su consumo, asi como es mas fácil de actualizar, cosa que no con el scheduler de los GPU de AMD.

Un tema adicional es el empleo de compresión delta del framebuffer, que reduce en ambos casos la necesidad de buses mas anchos y anchos de banda masivos. Esto reduce la complejidad e intensidad de uso de la cicuiteria, que se traduce en mejos consumo. NVIDIA posee algunos modos de compresión adicionales, lo que le permite en más circunstancias reducir el trafico de datos y consumo que lleva aparejado comparado al la misma funcionalidad en los de AMD. Si comparamos con el caso de los GPU que usan HBM, los buses son muy anchos y el ancho de banda muy grande, pero los controladores de memoria mucho más complejos.

Por otro lado, el proceso de fabricación en el nodo de 12 nm que emplea Samsung, parece ser bastante más efectivo a la hora de implementar este nodo que el de 12 nm que emplea GlobalFoundries, quien fabricó el chip del 590. Su mejor implementacion parece reducir las corrientes de fuga, provee mejor aislamiento y canalización térmica de los transistores. En su lugar, el GPU de las Vega VII es fabricado por TMSC, pero en 7nm.

De todas formas, hasta que AMD Radeon no lance de manera oficial su arquitectura Navi, no podremos saber si esta va a seguir empleando la arquitectura GCN (lo cual sería un lastre para los nuevos modelos) o va a emplear una nueva arquitectura. Existe el rumor que el segmento inferior podría estar basado en un GCN actualizado, saltando algunas limitaciones de la generación actual GCN 5.0 y más eficiente. Luego el segmento superior sería ocupado por una nueva arquitectura, la que podría estar disponible para el próximo año, o antes. Esto lo sabremos a principios del próximo mes de junio, durante el Computex 2019, que es cuando AMD tiene previsto presentar sus procesadores Ryzen 3000 y sus nuevas tarjetas gráficas Navi.


6 commentarios

Richard · 12 abril, 2019 a las 5:16 pm

porque nvidia sabe hacer mejores GPUs que amd
mas eficientes sobre todo

DARIAN · 11 abril, 2019 a las 6:21 pm

El articulo habla de algoritmos de compresión de datos y yo he leido del paralelísmo entre este y la inteligencia artificial.

Alguna vez comenté que los de verde se lo exprimieron en el mundo del software libre y por dios no hay código de aplicaciones gráficas que no ha sido tocado o se haya relacionado a su manera de trabajar los mismo.
Me encanta lo que visualiza ATI pero AMD trabaja para el sector privado o de licencia de pago. NVIDIA lo ve diferente y también tienen su lado poético con los que distribuyen free aceptando donativos pero a la vez ofrecen soluciones profesionales.

Nada mi gente que parte el ALMA en mil pedasos que un Render solo lo ejecute el micro cuando has pasmado sudor en una gráfica AMD, busques y rebusque drivers, compilaciones que no sabes ni como ni de que colores van por que no eres programador, leas a una comunidad de miles o decenas de miles de usuarios de este o aquel soft pidiendole a AMDios que se ponga las pilas, a sus voceros escusarse con que han escrito millones de lineas de códigos por lo que será dificel, luego su engañosísima publicidad anunciando un provenir que jamás llego y tu gráfica evaporar la pasta térmica pa que te enteres de una vez que lo que es ser INEFICIENTE, MEJOR NO SEGUIR POR QUE algo asi me hizo perder mucho tiempo pero me obligó a aprender a como hacer mejor las cosas en el mundillo de la informática.

    Maikel · 11 abril, 2019 a las 6:41 pm

    Darían, no se si fue a ti quien le expliqué su error. AMD,casi todo su código, herramientas y bibliotecas son open source, aunque no Free software todo, las licencias son más limitada. Las cosas más internas, de secreto industrial eso si es cerrado, obviamente. por ejemplo, pregúntale a la comunidad linux sobre los driver open/free de amd o nvidia. O que dijo Linus Torvalds al respecto una vez.

    Y no se de donde sacas lo del sector de pago o privativo, pues pocos como nvidia están más metidos en este, al contrario de amd. realmente no se que has leído o si lo leíste al revés.

    NVIDIA a invertido bastante y muy bien en software para sacar provecho a sus hardware, cosa que amd a venido ha poder hacer en los últimos años, y todo open source. NVIDIA a aportado a muchos proyectos open, pero sus proyectos propios son casi todos bien cerrados, por ejemplo, ahora fue que soltaron open phisx, a ver si alguien lo retoma, pues se ha ido dejando de usar por otras soluciones soluciones propias o free y open.Por no decir sobre Gameworks. Cuando AMD todas sus bibliotecas son open desde el inicio. He ahi

    No se o no recuerdo que situación tendrias en algún momento, a menos que la experiencia apliques mejor. Fue algo de blender? Creo tenía prometido un artículos sobre el render en blender con gpu, hace rato saque los datos pero no lo he armado, ya tendré q actualizarlos.

      DARIAN · 11 abril, 2019 a las 7:56 pm

      Amigo Maikel me encanta poder leer y debatir aqui por que en primer lugar aqui he aprendido cada vez que he leido, demás decir que me encanta aportar de lo poquito que se.

      Como bien dices NVIDIA hace privativo SUS proyectos. Pero que inteligente son al desrrollar los de otros Blender es el caso por supuesto y es que el pequeño no es poca cosa y si el dolorcito de cabeza para más de uno.

      En Blender AMD como pude ver en una presentación de Lisa Zu aqui mismo, saca pecho en su rendimiento con Cycles, es cierto que este tema deben haberlo corregido y mi experiencia fué con una HD 7870, pero por Dios, Blender lleva caminando ya 30 años y una comunidad con él, de padre mio y Dios me ampare y la generación HD 7000 de AMD pasaba del 2012 o 13 por ahí.

      Es verdad que lo que mis ojos han visto con ATI profundidad de pixeles que es de 32 frente a lo que visualizo con NVIDIA siempre me atrajo pero al final si el sofware que demanda un resultado, lo optiene y en el proceso NVIDIA lo hace igual, enmenos tiempo y con una gestion de recursos mejor optimizada Maikel amigo,no hay color.

      Hasta los llamados gurues de Blender recomiendan verde antes que rojo aún hoy en día lo afrman por más publicidad de AMD que salga, espero que este dato colorée tu articulo que sobre el tema en cuestión trae tela para cortar asi que no te apures que este tema creo que hasta puede ir por partes como todo lo que nos han ilustrados Ustedes amigos en Tecnolog;ia al Día sobre el rendimiento y el por que del rendimiento de no solo las gráficas sino de cuanto se les ha pasado por la mente y que nos complace cada vez que leemos,

      Saludos a Tecnología al Día salud y prosperidad a los sedientos de conocimiento y apasionados del 8vo o el 9o ARTE pero ARTE al fin.

MATR1X · 11 abril, 2019 a las 1:33 pm

La respuesta es muy sencilla…Porque sí, xDDDD

    MATR1X · 11 abril, 2019 a las 1:34 pm

    Porque es NVIDIA, Egehegeheg…. así dicen los NVIDIOTS, xD

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *