Aparecen nuevos benchmarks de las AMD Radeon RX 6000

Seguimos viendo pruebas de rendimiento de una GPU AMD RDNA2, concretamente de la AMD Radeon RX 6800, GPU que se dejó ver por el software de benchmarking 3DMark Time Spy alcanzando una puntuación gráfica de 16.775 puntos, siendo lo más interesante de todo que se acompañó de una CPU AMD Ryzen 5 3600X, recordando que AMD indicó que la tecnología AMD Smart Access Memory sólo funcionaría con sus CPUs AMD Ryzen 5000, por lo que el rendimiento de la CPU no se ve aquí inflado.

Como ejemplo, la Zotac GeForce RTX 3070 Twin Edge nos dio una puntuación de 13.616 puntos, la MSI GeForce RTX 3070 Gaming X Trio nos dio 14.086 puntos y la Nvidia GeForce RTX 3070 Founders Edition nos dio 13.851 puntos. Esto se traduce en que la AMD Radeon RX 6800 es un 19 por ciento más rápida en el peor de los casos, y de hasta un 22,3 por ciento en el mejor de ellos.

Esta diferencia de rendimiento no coge a nadie sorpresa, ya que según los propios benchmarks de AMD, la GeForce RTX 2080 Ti jugaba en otra liga, y esta rinde prácticamente lo mismo que la GeForce RTX 3070, de ahí el futuro lanzamiento de la GeForce RTX 3070 Ti.

R5 3500x + RX 6800, 16775 gp ts 250~280w pic.twitter.com/SZXWBu7EIo
— PJ (@PJ_Lab_UH) October 31, 2020

Por otro lado se indican dos benchmarks del AMD Ryzen 5 3500X @ 4.30 GHz + la AMD Radeon RX 6800 XT en el Shadow of the Tomb Raider, donde la GPU ofrecíó un rendimiento de 46 FPS a una resolución 4K con RayTracing, y 80 FPS @ 2K con RayTracing.

R5 3500x @ 4.3 + RX 6800 SOTTR RT on 4K 46 2K 80 pic.twitter.com/LpSCn6xBGN
— PJ (@PJ_Lab_UH) October 31, 2020
vía: @PJ_Lab_UH / Videocardz

Benchmarks 2K/4K de la AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800

Durante la presentación de las AMD Radeon RX 6000 Series, AMD mostró un par de benchmarks para cada GPU a una resolución, pero hoy podemos conocer el rendimiento de estas tres GPUs tanto en 2K como 4K, ya que la compañía únicamente mostró el rendimiento 2K para la Radeon RX 6800 XT y el 4K para la Radeon RX 6900 XT e, incomprensiblemente, para el modelo más básico conocido hasta ahora, la Radeon RX 6800.

Juegos 2K

De los 6 juegos seleccionados, la AMD Radeon RX 6900 XT supera en 5/6 juegos a la Nvidia GeForce RTX 3090. Incluso en 2/6 de las ocasiones la Radeon RX 6800 XT se sitúa por encima de la GPU tope de gama de Nvidia. A destacar, está activo el AMD Smart Access Memory, lo que aumenta los datos de la GPU.

Juegos 4K

Tras 8 juegos analizados, la Radeon RX 6900 XT consigue superar en tres de ellos a la GeForce RTX 3090, la misma cantidad de veces que le supera la Radeon RX 6800 XT. Quizás lo más interesante es que a 4K, la Radeon RX 6800 XT supera en la mitad de las pruebas a la Nvidia GeForce RTX 3080, y que la Nvidia GeForce RTX 2080 Ti ya está jugando sola en la liga de GPUs de anterior generación

8 respuestas a «Aparecen nuevos benchmarks de las AMD Radeon RX 6000»

  1. Sería ideal entonces para mi conseguir un monitor 1440p 27p 75hz (pongo 75 y no 60 para dar una cobertura que puedo aprovechar en algunos juegos, como el domm que mencionas y otros fps muy rápidos) para el resto de games no parece hacer falta una frecuencia de refresco por encima de 60fps full gráficos ( menos alguna cosita que sea mejor quitar) yo la verdad no he visto nunca una pantalla 2k y tampoco una pantalla con un juego que este corriendo a más de 60fps, por eso he tratado de documentarme al respecto, las opiniones están dividas, algunos alucinan con los 144hz (1080p) incluso lo priorizan ante una solución de 60-75hz a 1440p. El único juego competitivo que jugaré alguna vez será dota2 (no necesita de altos frames) el resto serán triple aaa que considero se verán más bonitos en 2k en una pantalla de 27p que es el tamaño óptimo según he leído pa esa resolución, me interesa el detalle de los juegos poder apreciar todo de la manera más bonita y como permita mi hardware y si el techo es 75hz creo que pueda darme 1 o 2 años o 3 con configuraciones ultra-altas con fps estables. Por cierto estuve revisando los precios en newgg de estos monitores y vi una cosa curiosa en algunos monitores de la marca acer que me dejó dudando, el tiempo de repuesta que publican es 1ms(VRB) cosa muy rara al menos para mi, estoy acostumbrado a ver 1ms (GTG) para los paneles más rápidos y 1ms(MPRT), busqué en Google y parece ser una alternativa propia de acer para sus paneles, dicen que es equivalente a 1ms(MPRT) pero mejor; sabes algo de esto?
    Por otra parte lo que explicas sobre Dlss y Rtx me queda un poco lejos, usas términos técnicos que no domino pero me llevo la siguiente idea. Amd implementa tecnologías abiertas, libres, más “sencillas” para que los desarrolladores se fijen en ellas, como los monitores free sync que un montón son compatibles con tarjetas nvidia a través de display port y no hay que pagar tanto por un monitor g-sync, el ecosistema que tienen alrededor de las consolas por su hardware les permitirá tener más alcance y de nuevo los desarrolladores se fijarán primero en lo que puedan hacer las consolas y quien más se les parezca en pc tendrá mejores oportunidades de correr mejor sus juegos. Más o menos esto pude retener. Vi por el grupo de telegram tu propio dlss con Geralt, es interesante, tu estudiaste informática o todo lo haces autodidacta? Tal vez las dos.

    1. lo de mas fps y hz en juegos competitivos, puede dar una pequeña ventaja, en algunos casos (los ejemplos que he visto son casi casos borde). pero el limite lo pone la persona, si su capacidad de captura e interpretacion de la imagen y reactividad es inferior, puedes ponerle un juego y monitor a mil fps y hz que no mejorara nada

      igualmente, con respecto a los juegos multiplayer. jamas jugare dota (lo aborresco, desde las primeras versiones del primero), juego otros pocos, pues en general el multiplayer no me interesa mucho. me interesa el single player, las historias.

      de que estudie. si, informatica graduado hace casi 15 aÑos, y especializado en procesaminto de imagen/video y graficos por computadora (esto lo tengo un poco abandonado hace un tiempo, aunque mantenido al dia) desde el primer año de la carrera, jajaja. y todos los dias me doy un poco de saturacion sobre el tema, pues es lo que trabajo todo el tiempo. hoy mismo me actualice sobre un tipo de interpolacion, que habia estudiado hace unos años pero me actualice a sus ultimas novedades. ayer me dedique a ONNX, un estandar para redes neuronales, y como usarlo para algo que estoy haciendo, ademas de completarla idea que tengo de eso que viste del “DLSS”. pero milaro aqui en el sitio, lo del “DLSS”

  2. NVIDIA con su targeton rtx 3090 se ba ban a tener que tragar con papa. seguro amd implement aotra cosa mejor que el dlss. para mi gusto el dlss se ben feisimo almeno para mi gusto soy de los que prefiere jugar los games con calidad aunque sean 60 fps

    1. Estoy de acuerdo contigo, prefiero 60fps a full gráficos que quizá 100fps en medio. Lo que pasa con dlss es que la versión 2.0 hace que los juegos que la implementen se vean mejor, ya no se ve granulado, además del aumento de rendimiento en fps.

  3. Independientemente que amd logre ser competitiva con las nuevas tarjetas de Nvidia en todas las gamas, amd debe tener una implementación efectiva (similar, competitiva) de rtx a la que llevan los verdes, además de crear su propio de dlss a la altura del 2.0 y no de la versión 1.0 sino en el puntaje global será nvidia el ganador, eso sin tener en cuenta los precios, la 6800 tiene un precio sugerido mayor que la 3070, pero las otras dos cuestan menos, sobretodo el modelo más grande. Mi duda esta en lo siguiente será necesario actualizar tarjeta si poseo una 5700xt, quiero comprar un monitor 1440p 144hz, probablemente si digo yo, pero quisiera tirar con mi gráfica 1o2 años más no me importa que los juegos triple vallan a 60hz ,creo que eso es un punto a favor para conservarla aunque todo depende de como se comporten los juegos nuevos.

    1. para mi, en lo personal, 60 fps me basta y sobra. mientras este por ecnma de 30, con todo (o casi todo) activado, a la resolucion que utilice, para mi perfecto+. si de hecho a muchos juegos los bloqueo a 30 fps aun den muhco mas, para cuidar el hardware (menos procesamitno, menos calor, menos estress), en los shooters rapidos algunos los bloqueo a 60, y tengo activo el Radeon Chill, que si un juego (compatible) tiene menos cambio en la imagen, baje hasta 30 fps (no necesita mas). ejemplo, el Doom a mi llega a veces a 90 (en una RX470 y 1920×1080) si lo dejo ir a todo, usualemnte por encima de 60, pero lo tengo bloqueado hasta 60, y con el radeon chill se mueve de 30 a 60. menos estress, menos temperatura, mas vida para el hardware.

      realmente, no le encuentro interes alguno a los monitores de alto refrescamiento. prefiero resolucion (hasta 1440p), tamaño adecuado (23″-27″ segun resolucion), calidad de imagen y de construccion/robustez

      esto me lleva en lo personal a que la tarjeta que cambie , luego de explotar la anterior hasta el moemnto en que lo que dije antes deja de cumplirse, debe tner al menos un 50% mas de potencia, soportar todas las tecnologias COMUNES actuales y a la resolucion que use y maxima calida, en juegos AAAA dar como promedioa en una prueba de una seleccion mas o menos amplia, uno 45 fps. esto me asegura un minimo de 2 años de uso antes de que paso lo que dije antes, pero con suerte puede explotarse mas todavia unos 4 o 5, en dependecia de los juegos, y siempre puede ajustarse algun parametro de calidad que impacte mucho.

      ahora, hay que tener en cuenta varias cosas

      • AMD a dado un salto grande, solo ver el caso RX 6900XT

      • si, su primera implementacion acelerada para raytracing debe ser inferior a la de nvidia que esta en la segunda. pero parece que esta primera gen, al la primera, esta al nivel de la 2080ti, la maxima “estandar” (no titan) no profesional de Nvidia, y eso no en la tarjeta mas potente si no en una inferior.

      • todo parece indicar que su implementacion en hardware es mas flexible y tiene uso total del hardware segun la tarea, no como los RT Cores que si no es un juego con RT, simplemente no se usan, hardware por gusto. me huele que para las cosas de IA, cuando hagan hardware acelerador, sera similar, unidades que hagan mas de una tarea, asi todo se aprovecha siempre

      • estan trabajando AMD y Microsoft en un “supersampling”, algo como el DLSS, mediante DirectML que es parte de directx12. de esto hay ejemplos hace ya casi dos años, y lo primero que salio al respecto es anterior a las RTX. por las ultimas noticias, la version que implementaran ya la tienen funcional en pruebas, pero no saldra ahora con las tarjetas, si no mas adelnate. y han dicho que sera Open Source y multiplataforma, asi que funcionara en la PC y consolas. puede que no sea del nivel de calidad de DLSS y quizas no entregue la diferencia de rendimiento. pero sera el estandar, el que se facilitara a todos (hasta nvidia lo podria usar). y la difrecnia entre dlss 1 y 2 es la calidad, el cuanto ayuda la version 2 al rendimiento es similar al la 1.

      • Sony no emplea directx 12 en la PS5, al parecer es Vulkan o un derivado, lo que tambien seria algo estandar o cercano

      • las dos consolas poseen hardware AMD en CPU y GPU. ahora se encargaron AMD, Microsoft, y Sony de hacer mas compatible el hadrware con la PC, fundamentalemnte microsoft ha empujado mucho en este sentido, para que la plataforma sea mas pareja en caracteristicas, cosa muy de su interes. asi se facilita el desarrollo y portabilidad y los juegos y servicios se muevan mejor en su ecosistema PC-Windows-XBOX Series X

      • esto lleva a que las optimizaciones seran mas efectivas y esperamos que los ports menos problematicos. la optimizacion y forma de hacer las cosas en RT, SS y demas, será mas como se defina por el hardware de AMD, o al menos lo que los desarrolladores hagan en las consolas o pc, se mueve mas transparente a la otra plataforma. en la gen anterior el hardwra eaun siendo muy similar a la PC, habia mas divisin a nivel de sofftware y caracteristicvas. por lo menos Microsoft no quiere tropezar con esto de nuevo (ni con la potencia y capacidades como se vio PS4 vs XBOX One originales)

      • del RT, si un juego se hace con DXR puro, sera compatible con todo el harware compatible (valga la rebundancia) DX12, y mas con el dx12 ultimate. si nvidia pone $ para que implementen cosas especificas de RTX, que es su implememtacion de DXR con cosas propietarias y especifica, solo lo seria con su hardware. pero ahora DXR una alternativa comun y estandar en PC y al menos en las XBOXSX.

      • Intel debe sacar este proximo año sus GPUs discreta para escritorio, al parecer con raytracing DXR y he visto tambien de lo que trabajan para supersamplig con ia. estan trabajando tambien en soporte a las extensiones RT de Vulkan. ergo, otro jugador mas que va con estandares (DX12 DXR y Vulcan RT) en lugar de una manera propietaria

      de nvidia se ha visto ya varias veces como empujan$ alguna tech propietaria, o que medio funciona en otro harware pero basicmente lo sabotea, ejemplo, la historia con GameWorks, y que ha pasdo con GW? se ha ido dejando de usar para usar middlewares más estandares y agnosticos. o la historia con PhysX, o la historia con G-Sync / Freesyn / A-Sync.

      mi opinion es que los desarrolladores, los pocos que han usado lo especifico de RTX (otros si han usado DXR), dejaran de hacerlo y ahora pueden pasar a usar de manera comun en todo DXR si quieren raytracing. el DLSS si puede que lo usen mas, pero si la alternativa de AMD/Micrsoft e incluso si Sony trabaja en ello (tiene algo para esto segun he leido, no con IA) es suficiente, facil de usar, estandard en todas las plataformas, ceo que tambien se moveran para aqui.

      del DLSS, aqui puse un articulo de un trabajito que hice para simular algo parecido, puede ser mejor aun, fundamentalmente mas estable temporalmente (ya probe con un video! pero la compresion me afecta). incluso una parte de la operacion es aplicar un CAS (Contrast Adaptive Sharpenning),que lo conoces mas por RIS (Radeon Image Sharpening), esto gracia a que esta descrito el algoritmo y esta el ejemplo opensource, asi que me pude programar una version. es bastante simple y rapido. lo importante es tener la capacidad de acelerar la inferencia de la red neuronal en el hardwarae de la mejor manera posible. esto es lo que hacen los llamados Tensor Cores en las RTX.

      en mi opinion, si fuera Microsoft y AMD (incluso Sony), para ganar en rendimiento, y sin tener unidades especificas, haria una de dos variantes. traajo en un espacio de color decorrelacionado color-luminancia, como YUV, Lab o similar. Como el croma, el color, a la vista humana no aporta informacion de estructura, lo escalo con un buen filtro lineal, pero la luminancia de la imagen, donde se define la estructura y detalles esa la escalo con lo mejor que haya y que el hardware acelere lo mejor posible. (en los codecs de imagen y video con compresion esto es lo que se hace, el procesamiento duro es en la luminancia, el chorma se trabaja a la mitad de la resolucion.)

      1-o con una red neuronal generalista de superresolucion (estilo DLSS 2)

      2-o con un filtro lineal inteligente, que trabaje bien los bordes, y las texturas las realzo con CAS

      luego se combina luminancia y croma y e lleva a RGB
      si se hace bien, el trabajo es casi 3 veces menos y el resultado puede ser casi igual (excepto el color exacto en algunos pixeles, pero muy poco, despreciable)

      con respectoi a estas GPUs de ahora, de su rendiminto bruto hay que esperar en primer lugar a que salgan y salgan tambien todas las pruebas y analisis. aaaa!!! ya que los drivers esten a la altura.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *