¿Cuál fue una mejor inversión? La Radeon RX Vega 56 o la GeForce GTX 1070

La Radeon RX Vega 56 fue la respuesta, tardía, de AMD a la GeForce GTX 1070, una tarjeta gráfica de gama alta que fue, durante bastante tiempo, la más vendida de NVIDIA dentro de su gama y también una de las más populares a nivel general, ya que permitía jugar con todas las garantías en resoluciones 1440p y también en 4K si estábamos dispuestos a reducir la calidad gráfica.

El lanzamiento de la Radeon RX Vega 56 tuvo lugar en agosto de 2017, mientras que, por contra, la GeForce GTX 1070 llegó en junio de 2016. Esto quiere decir que cuando AMD pudo responder la solución de NVIDIA ya llevaba más de un año en el mercado, y por tanto sus drivers estaban mucho más pulidos. No debemos olvidar que, además, la segunda se llevaba mejor con los juegos en DirectX 11, aunque a diferencia de las generaciones anteriores contaba también con un buen soporte de Vulkan y DirectX 12. Los repuntes de la Vega 56 motivaron a NVIDIA a sacar su respuesta preparada, la GTX1070ti.

Durante bastante tiempo la Radeon RX Vega 56 y la GeForce GTX 1070 fueron consideradas prácticamente como equivalencias directas, algo que cambió gradualmente gracias al cuidado que puso AMD en los drivers de cara a conseguir una mayor optimización y un rendimiento superior, y también por la propia dejadez de NVIDIA, ya que la serie GTX 10 dejó de recibir mejoras a nivel de drivers cuando llegaron las GTX 16 y RTX 20 al mercado.

Especificaciones de la Radeon RX Vega 56

• Núcleo gráfico Vega 10 XL.
• 3584 shaders.
• 224 unidades de texturizado.
• 64 unidades de rasterizado
• Hasta 1471 MHz en la GPU (frecuencia dinámica).
• Bus de 2048 bits.
• 8 GB de HBM2 a 1.600 MHz.

• TDP de 210 vatios. Requiere dos conectores de alimentación de 8 pines y una fuente de 600 vatios y 32A.

Especificaciones de la GeForce GTX 1070

• Núcleo gráfico GP104.
• 1920 shaders.
• 120 unidades de textura.
• 64 unidades de rasterizado.
• GPU a 1506 MHz-1683 MHz.
• Bus de 256 bits.
• 8 GB de GDDR5 a 8 GHz.
• TDP de 150 vatios. Requiere un conector de 8 pines y una fuente de 500 vatios y 30A.

Radeon RX Vega 56: como el buen vino

La GeForce GTX 1070 se mantiene como una tarjeta gráfica muy potente que todavía puede, de hecho, mover sin problemas cualquier cosa en 1440p, pero su rendimiento se ha visto reducido en varios juegos por culpa de una optimización pobre y de unos drivers que priorizan a las generaciones más actuales. Un aspecto es que en estos mismos drivers NVIDIA logra otpmizarlos más al lanzamiento de sus gráficas, dando estas de si casi todo lo que pueden. AMD cuenta con menos recursos para lograr lo mismo, pero en el timepo mejora y se va mas allá. Los desarrolladores de juegos, aun en la poca optimización que hace la mayoría, su desarrollo de consolas está basado en arquitecturas AMD, y las optimizaciones (las pocas o muchas que hagan) deberan aprovecharlo y durar el tiempo de vida de estas consolas.

No exagero, solo tenemos que ver lo mal que rinde en juegos como Red Dead Redemption 2, donde incluso una Radeon RX 580 queda prácticamente a su nivel. Hardware Unboxed ha publicado en su canal de Youtube una nueva comparativa en la que enfrentan a ambas tarjetas gráficas en juegos actuales y, como vemos en la gráfica superior, las diferencias son claras.

La Radeon RX Vega 56 ha mejorado su rendimiento con el paso del tiempo hasta tal punto que ahora rinde, de media, al nivel de una GTX 1070 Ti, aunque en algunos juegos, como el citado Red Dead Redemption 2, supera incluso a la GTX 1080 de NVIDIA. Es el «milagro» de la optimización y de pulir a nivel de drivers para aprovechar al máximo una arquitectura gráfica. Algunos llaman a esto jocosamente como “AMD Fine Wine Technology™”.

Debemos recordar también que la Radeon RX Vega 56 utiliza la arquitectura gráfica GCN de última generación, y que esta brilla especialmente en DirectX 12 y Vulkan. Gracias a ello ha sido capaz de superar a tarjetas gráficas mucho más potentes en algunos juegos, y debería tener una vida útil más longeva. Vemos también esto cumplirse con la Vega 64 acercarse y en algunos casos aislados superar a la GTX1080ti, sin embargo solo en juegos muy modernos y tecnológicamente avanzados.

El resultado es obvio, aquellos que quería el mejor rendiminto de su compra casi desde el momento iban bien con la GTX 1070, pero la Radeon RX Vega 56 ha envejecido mejor y fue una mejor inversión a más largo plazo en su momento. Todavía es una tarjeta gráfica viable para resoluciones 1440p, y si podéis encontrar una de segunda mano por 250 euros o menos es una buena compra (a ser posible evitad el diseño de referencia, cumple, pero es ruidoso y calentorro).

Fuente: MuyComputer.com (19-3-2020)

27 respuestas a «¿Cuál fue una mejor inversión? La Radeon RX Vega 56 o la GeForce GTX 1070»

  1. actualmente si es para gaming y la encuentras seria un buen partido la Vega.. PERO sacarla al año cuando Nvidia ya recupero inversion y hasta tenia una 1070ti bajo la manga para contrarestar la salida…

    ahora sacan una una supuestamente Big NAVI 2800XT cuando las RTX 2080ti ya han pelado al mundo.. para colmo Nvidia sacaria una RTX 2080ti Super superior al mismo precio de la 2080ti…

    cada vez que asoman la cabeza fuera del hueco le dan con una chancleta … a taaaaasshhh

    jod .. que AMD haga algooooo bien BUM a ver si las graficas de Nvidia bajan aunque sea 50 dolares..

    1. …para comparselas? entonces, para que lo “va a hacer bien” uno, si “haciendolo bien” lo que hace es ayudar al otro?

      esto es algo que lleva un balance entre que y cuanto

    2. eso es verdad, nvidia lleva par de años q no le da un chance a amd, y en esta generacion cada vez q amd saca una tarjeta, nvidia saca una ¨super¨ y solo bajan el precio cuando es muy necesario como en el caso rtx 2060 de 6gb q la bajaron para competir con la 5600 xt…

  2. Alguna forma de q el BATTLEFIELD 3 use mas nucleos del procesador me pasa q me usa uno al 100% y y otros 3 en 20% el juego me va 80 fps con la grafica en 30% de uso y el micro en 15% es decir q oño le pasa a este juego con mi r7 2700x y por q pasa con este battlefield 3 y no pasa con el BF4 q me corre a 200fps joder y el bf3 es el unico q tienen puesto en la nacional y el problema del HUD q ce ve superchiquito y t deja casi ciego cuando juegas en alta resolucion por favor q alguien me diga q para arreglar algo de esto ahi solucion ya Q estoi considerando borrar el game y esperarme a q pongan el BF4 en la nacional por favor algun articulo q me pueda ayudar con esto.

    1. Esto es para BF4 verifica si al tres le va

      Add THIS to your user.cfg to force the game to use more cores than it does…

      For 8 core cpu:
      thread.processorcount 8
      thread.maxprocessorcount 8
      thread.minfreeprocessorcount 0

      For 6 core cpu:
      thread.processorcount 6
      thread.maxprocessorcount 6
      thread.minfreeprocessorcount 0

      For 4 core cpu:
      thread.processorcount 4
      thread.maxprocessorcount 4
      thread.minfreeprocessorcount 0

      For 3 core cpu:
      thread.processorcount 3
      thread.maxprocessorcount 3
      thread.minfreeprocessorcount 0

      At the moment, if you have 4 cores the game in DX11.1 mode uses 2 job threads and in Mantle 3 job hthreads.
      After you add the commands I wrote here to your user.cfg the game in DX mode uses 3 job threads.
      Don’t know why not 4 job threads, you should ask Dice for the info

      To verify type “render.drawscreeninfo 1” into console

      Como puedes ver, dicen que el BF 3-4 lo mas que usa de verdad son 3 hilos, aunque le hagas esto, solo ganas en que va mas suave, sin trabes, pero en el hardware que tienes ni asi deberia pasar

      la opcion thread.minfreeprocessorcount 0 le dice que n dehje nucleo/hilo sin usar, pero est puede traer alguna trabadera en PC con digamos i3 de 2 nucleos

  3. lo que mata de estas GPU, ademas de su precio como tal, es su TDP, que obliga a realizar otrs inverison en una fuente de calidad.
    pero me encantaria una Vega 56 o una Radeon VII.
    despues que se prueba el lado oscuro, no quiere regresar uno, jajaj

    1. exsistiendo las RDNA no tiene sentido comprar ninguna de esas, una VEGA VII?? para que, a esta grafica el unico sentido que tiene es alguien que de verdad use la FP64 o pueeede que los 16gb de memoria pero para gaming. no…

        1. si, como no…. la vega VII con un MSRP de 700usd se ajusta perfectamente a los presupuestos justos y la Vega56 mas de lo mismo REPITO existiendo las RDNA comprar ninguna de estas tiene sentido. buen dia.

          1. es Radeon VII
            y ya dificil, o no aparecen en venta nuevas
            de uso las vi en 500
            yo la quisiera para desarrollo, no necesito FP64 para nada, pero si su FP32/16 y ancho de banda de memoria

  4. entonces la rx 5700xt superara la 2070super de aqui a un año pq ya e visto unos cuantos jug q la 270le saka namas 5fps y otros la rx la supera intercambiando golpes las 2

      1. los nuevos juegos pueden y van a usar nuevas tecnologias, pero seran opcionales, tampoco seran todos y su adopcion demorara.
        Los nuevos seguiran haciendo lo mismo que los anteriores, nada de lo que trae dx12u es mandatorio, pues mas bien todo lo que plantea ya se usa en juegos de una u otra manera, solo que ahora se facilita y estandariza
        Las tarjetas anteriores, hasta algun limite que pongan, pueden ser compatibles via drivers, las nuevas via hardware. a menos que solo se lo den a las mas nueva para hacer que las compren de si o si.

        1. cuando amd y nvidia tengan graficas pinchando con todas estas tec y tambien metidas en las consolas crees q les va a importar las generaciones pasadas? t van a dar una provadita quisas de ray tracing en tu gtx o rx pero va a ser pa q te enganches y quieras cambiar para la nueva gen como ponerle el dulce en la boca a un niño eso es lo q va a pasar por eso yo estoi en contra de q compren las rx 5000 ahora son mas baratas pero mañana le van a salir mas caras a quien las compre hoi acuerdenc q de lo q dice el dicho. ………………ademas estas nuevas tec les hacen el trabajo mas facil a los programadores de los games crear un motor de iluminacion sale costoso a cualquier desarrollador de juegos y es un proceso engorroso por la cantidad de tiempo q le tienen q dedicar para q el efecto simulado por software sea cada ves mas convincente cuando apuestan por ray trazing tienen la mitad del trabajo echo y tambien en lo q respecta a antialiazing tienen a su dispocicion a la supercomputadora de nvidia para el dlss.

  5. el coronavirus ha alterado los precios. sigo viendo las 1060 6 gb en 300.00 cuc y barbaridades asi.
    escogi mal momento para vender, ahora estoy aburrido en casa, y los precios lejos de bajar se mantienen o suben.
    hace como un mes vendi la RX580 en 220.00 y el kit H81M-C, core i5-4670, y 16GB RAM Crucial Ballistic en 230.00 cuc.
    a veces creo que fue un precio justo, pero cuuando veo las barbaridades que hay en la calle me digo que los regale, jjjj

    1. pero ahi una cosa q influencia mucho aqui y es la salida al mercado la 1070 salio un año antes men y la tecnologia baja de precio constantemente ademas la 1070 ya tenia buena cuota de mercado por q era lo q todo el mundo c compraba costaba entre 350 y 400 por eso la vega 56 y aun rindiendo mas no la superó la gente siguieron comprando las 1070 por encima de las vega 56 por q estaban a mejor precio y tambien c encontraban de segunda mano mas baratas cuando c acabo la furia de los mineros ya q la 1070 tambien fue una targeta mui buena para esto por su buena relacion consumo rendimiento y hablando del hardware, tocho tocho lo q tiene la vega 56 hablamos de mas de 3500 shaders contra 1920cuda cores y 224 TU contra 120 de la 1070 y las memorias HBM2 wow y nvidia con la 1070 usando gddr5 nvidia solo a usado esta memoria en unas poquisimas targetas asi q en temas de arquitectura y prestaciones si ves a nvidia estan dando con un cuentagotas la cantidad de hardware pero si amd sigue como va y c pone las pilas la respuesta de nvidia va a ser dura si nvidia con memoria gddr5 puede competir contra hbm2 de amd q va a pasar cuando nvidia use hbm2 en las graficas normales o si nvidia en los 12nm es mas eficiente q los 7nm de amd q va a pasar cuando nvidia pase a 7nm uf la competencia es buena para los usuarios de ambas marcas yo estoi contento con q amd sigua mejorando para q nvidia c vea forzada a vender mas barato y ahi voi a estar yo cambiando de video card aunque pa nvidia no pa amd pero ese es mi caso . PD si tengo q escoger ahora mismo entre la 1070 y la vega 56 cojo a mismo precio cojo la vega 56 por q ahora tengo buena fuente de 850 wats 80+gold y 71 amp en +12. pero dejenme con mi rtx 2060 q hasta ahora soi feliz jugando a 1440p

      1. una correccion los shaders de AMD son bastante distintos a los de NVIDIA. los de AMD son ALUs simplificadas, asi que puede meter mas en la misma area, los de NVIDIA son mas complejos y grandes asi que son menos. no se pueden comparar las cantidades, son distintos en su construccion y capacidades

        la arquitectura de AMD es mejor para tareas muy pero muy paralelas, de operaciones simples y directas, con poca o ninguna bifurcaion, por eso para muchas cripto es lo mejor que hay, y mas las Vega, y las criptos estas eran de las que todavia es eficiente usar GPUs, por eso las AMD se desaparecian primero. la de NVIDIA trabajan mejor codigos algo mas complejos en su flujo, y los grupos paralelos son menores, e igual hya criptos, menos, que le van bien.

        las Vegas se pusieron muy caras cuando la mineria, por lo que te explicaba antes, y saleindo un año atrazadas las afectó

        el HBM en graficos no se explotaban tanto asi que quedaban casi como si fueran memoria normales, en sus versiones de servidores las Radeon Instinct, ahi es donde si se le saca partido. asi que es algo que encarecia a estas tarjetas para juegos, si hubieran hecho dos versiones separadas, con distito tipo de memroia, habria sido mejor, pero no tenian fondo$ para dos versiones del chip, con controladoras de memorias distintas y optimizaciones segun su uso, asi que usaron uno solo, para juegos y para computo dedicado

        personalmente para mi pincha, HBM me seria una maravilla, uso mucho ancho de banda en las cosas que programo. si te pregunta a que me refiero, si programo las GPUs con OpenCL, casi todo mi codigo de procesaminto es paralelo masivo y acelerado en GPU, y directamente, no con bibliotecas intermedia(ahora solo uso clFFT y un par de funciones de OpenCV, lo demas desde cero), codigo limpio contra el hardware. por eso me gustaria mucho tener disponible una Radeon VII

        1. HBM es mas caro q GDDR pero es mejor en todos los aspectos cualquier targeta se beneficiaria de estas memorias un ejemplo de nvidia con hbm son las titan V rinden casi el doble de la 1080ti q usa gddr5X con el mismo consumo de 250 wats pa volverce loko con ese rendimiento/consumo.

          1. y aqui me auto corrijo el problema de hbm es q el hardware acompañante tiene q ser mucho mas potente para ser aprovechadas,es decir la velocidad de la memoria tiene q ir acompañada de lo bueno q es el resto del hardware para aprovechar estas velocidades y en lo personal por lo menos en las targetas de gamas medias o gama media alta no creo q lleguen todavia estas memorias quisas la veamos en la rtx titan de serie 3000. hbm por ahora solo es usado en targetas de trabajo y con grafcas con mucha memoria y q tienen q mover datos grandes como en el modelado 3d pero para los juegos es menos el consumo de ram y esta mas optimizado ahora con la tec de reutilizacion de texturas (shader feedback) deberiamos ver cosas interesantes en los juegos en cuanto a optimizacion de memoria la tendencia es q si bien el rendimiento en bruto de las graficas va a aumentar c esta trabajando mas en el desarrollo del software para aprovechar mejor la potencia ya c vio q el 4k movido a pura potencia bruta es un desperdicio y ce puede lograr de otras formas y eso es lo q c esta trabajando.

          2. si, la titan V usa HBM, pero es un chip/arquitectura mucho mas potente. hbm ahi la ayuda tambien a mantener menor consumo aunque haya aumentado la cantidad de memoria pues son menos chips a menor velocidad de reloj

          3. gran ejemplo el mismisimo Doom Eternal, es de lo mejor en los visual, animaciones y de lo mas rapido y eficiente que existe, si no lo que mas

            y es forward rendering!! con tanta iluminacion dinamica y luces en general uno pude pensar que de render diferido.
            la optimizacion y algoritmica de geston de la representacion que el han metido es brutal

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *