La AMD Radeon RX 6800 XT alcanza los 2.65 GHz y supera a la GeForce RTX 3090 en 3DMark

Alva Jonathan (lucky_n00b) rompió el récord mundial de HWBOT con la tarjeta gráfica Radeon RX 6800 XT. La AMD Radeon RX 6800 XT ha conseguido superar el rendimiento de la Nvidia GeForce RTX 3090 en la competición de HWBOT centrada en el benchmark 3DMark Fire Strike. Esta competición implica desactivar el tesselation, algo que no sucede en el Hall of Fame de 3DMark, por lo que el récord sólo se puede registrar en el ranking de HWBOT.

Lo más impresionante de todo es que la gráfica consiguió alcanzar una frecuencia Turbo de 2650 MHz frente a los 2250 MHz de fábrica, pero lo aún más impresionante de todo es que esto ha sido posible mediante el sistema de refrigeración de referencia, por lo que es de esperar que se fulminen numerosos récords de rendimiento con el nitrógeno líquido a su lado, dejando así patente la gran sinergia existente ente la microarquitectura RDNA2 y el proceso de fabricación de 7nm de TSMC, lo que se traduce en un gran overclock con temperaturas asumibles para su refrigeración por aire.

Alva emparejó RX 6800XT con Ryzen 9 5950X con frecuencia de 5,4 GHz utilizando nitrógeno líquido. Nuevamente, solo el procesador se enfrió con LN2, el RX 6800XT estaba usando enfriamiento de stock. El overclocker Lucky_n00b fue así capaz de hacer que la AMD Radeon RX 6800 XT alcanzara una puntuación de 47932 puntos, superando por 225 puntos a la Asus ROG Strix GeForce RTX 3090 OC @ 2385 MHz (vs 1695 MHz Mod.Ref) refrigerada con nitrógeno líquido.

En el Salon de la Fama de 3DMark donde si es requerida la activación completa de la teselación, la RX 6800 XT se cuela entre las RTX 3090 llegando al 5to lugar.

Por supuesto, el 6800 XT es la GPU Big Navi actual más rápida, pero el buque insignia RX 6900 XT todavía está esperando entre bastidores y le dará a Nvidia aún más competencia cuando surja en solo unas pocas semanas el 8 de diciembre.

También, mirando estos resultados (con ayuda de un CPU con OC, claro), podemos imaginar el OC con que saldrán los modelos personalizados de otros fabricantes.

Bueno, decimos que la batalla por el rendimiento se está calentando, pero la competencia real podría ser qué gigante de la GPU puede obtener tarjetas gráficas en los estantes más pronto, porque parece que AMD no lo está haciendo mejor que el bajo rendimiento de Nvidia con el stock disponible. de tarjetas gráficas Ampere.

Sin embargo, siguiendo los rumores, AMD tendrá más stock el próximo mes, aunque Nvidia ya ha admitido que los niveles de inventario de RTX 3000 no mejorarán significativamente hasta 2021 como muy pronto. Teóricamente, entonces, eso podría significar que los jugadores de PC interesados ​​en una GPU de próxima generación compren muchas más tarjetas AMD al principio .

6 respuestas a «La AMD Radeon RX 6800 XT alcanza los 2.65 GHz y supera a la GeForce RTX 3090 en 3DMark»

    1. mi opinion para rdna 3
      -Ray Acelerators mejorados. si diplican las intersecciones por triangulo, de 1 a 2 por Ciclo, seria bastante. las intersecciones de cajas (box) son menos pesadas y mas rapidas, estas e usan para el BVH, pero las intersecciones de triangulos son para la geomtria real como tal, lo mas pesado
      -arrays sistólicos añadidos para la multiplicacion rapida y unificada de matrices pequeñas (los Tensor Cores de nvidia, AMD los llama Matrix Cores). estos ya se ven en la tarjetas de computo MI100 que presentaron, con la arquitectura CDNA
      -GDDR6X, si deja de ser exclusiva de NVIDIA (a saber como sera el acuerdo de NVIDIA y Micron al respecto). pero si se llega a estandarizar, otros fabricantes de memoria, como Samsung y Hinyx la fabricarian y AMD podria incorporarla. esto es lo que falta para igualar o superar en 4K, como vemos en las pruebas.

      mientras tanto saldrian para los juegos actuales los parches optimizados para RDNA2 (hasta ahora ha sido todo optimizado para nvidia en cuanto a RT) y los proximos juegos ya vendrian con estas optimizaciones

      1. ojala tambien tengan el super resolution implementado y bien optimizado como nvidia hizo con el DLSS 2.0 y que mejoren los aceleradores por hardware para actividades menos gamers y mas vida diaria (decodificacion y encodificacion de videos, aceleradores computacionales tipo cuda) sabes esa cosa que siempre le falto a amd, tienen fuerza bruta a montones pero siempre he notado que a amd le faltan esas técnicas y trucos que intel y nvidia tenían.

        1. de una SR, hay muchas manera de hacerla, yo mismo he programado varias para mis cosas de trabajo. el asunto es hacerla tan eficiente como sea posble y que el hardware ayude todo lo que p8ueda. ah y que sea estable temporalmente..

          en la decodificacion de video, cumple con todo lo mimso que nvidia. la codificacion tambien cumple con todos los codecs y normas, pero la calidad (para un bitrate dado) es menor. el QuickSyn de intel tambien, lo que no he visto comparaciones de calidad con este

          los “aceleradores computacionales tipo cuda” no son mas que los shaders. nvidia, intel y amd tienen estas unidades (nvidia los llama “nucleos cuda”, amd “stream porcessors” intel “execution units” aunque dentro estan divididos en ALUs, y asi Qualcom, ARm y PowerVR, les dan nombre, pero a la larga la idea es la misma). aqui el asunto es el software, cuan optimizado y especifico para una aqruitectura es. nvidia a metido bastante en eso y CUDA es especifico y propietario y aprovecha a tope su propio hardware. los demas , Amd incluido (Nvidia igual), usan apis estandar , OpenCL con algunas extensiones propias en cada caso, como es estandar, todos cumplen con lo mismo, asi que mas o menos funciona en todas, y la optimizacion mas especifica de cada platyaforma la debe hacer el desarrollador, y esto no hay tantos especalistas que digamos, en el caso cuda se deja muhco a lo que haya hecho nvidia y el soporte q den a los desarrolladores de mayor nivel . donde mas recontraoptimizacion he visto con opencl ha sido en los programs de mineria de cryptomoneda.

          1. tienes razón lo que falta es software no es una sola vez que varios reviewers se han quejado que en adobe premier las pc y laptops con gpu integradas y discretas de amd no se usan tan eficientemente como por ejemplo las de intel y nvidia que se complementan y supuestamente premier tiene los codecs para usarlas simultáneamente pero casi nunca (digo casi pero io nunca he visto un video en el que se hallan usado las dos al mismo tiempo) usa la integrada solo la discreta. Corrigeme si me equivoco

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *