¿Qué se sabe de las GeForce RTX 30?

NVIDIA lleva un tiempo trabajando en Ampere, la arquitectura gráfica que servirá de base para las tarjetas gráficas GeForce RTX 30, sucesoras de las GeForce RTX 20. La compañía que dirige Jen-Hsun Huang ha sabido mantener en secreto las claves más importantes de esta nueva arquitectura, pero tenemos una gran cantidad de filtraciones y de rumores que nos permiten empezar a dar forma los puntos más importantes de esta nueva generación.

Durante los últimos días he llevado a cabo un proceso de revisión y de análisis de las filtraciones y rumores más importantes que han aparecido hasta ahora, y las he ordenado todas en este artículo para que tengáis a mano una información completa y fiable con todo lo que podemos esperar de las GeForce RTX 30 de NVIDIA. Los datos que vamos a ver no son definitivos, lo que significa que pueden cambiar, pero son bastante fiables, lo que significa que en caso de que se produzcan cambios no deberían ser muy marcados.

La serie GeForce RTX 30 será la gran rival de las Radeon RX 6000 de AMD, una línea de tarjetas gráficas de última generación que, como hemos visto en este artículo, estará basada en la arquitectura RDNA 2 y contará con hardware dedicado para acelerar trazado de rayos. Ambas definirán el catálogo de soluciones gráficas que podemos encontrar en el mercado de consumo general durante la segunda mitad de 2020.

GeForce RTX 30: mejoras a nivel de arquitectura

Empecemos la casa por los cimientos. Lo primero que debemos analizar para entender los cambios que traerá una nueva generación de tarjetas gráficas es su arquitectura y el proceso de fabricación. Turing fue una vuelta de tuerca sobre Volta, una arquitectura, esta última, que no llegó al mercado de consumo general.

La mejora que marcó en términos de rendimiento bruto frente a Pascal fue menos marcada de lo que se esperaba, y el salto en materia de eficiencia tampoco fue bueno. NVIDIA decidió centrar las novedades de su nueva arquitectura en el trazado de rayos y en la inteligencia artificial, dos tecnologías que fueron recibidas con entusiasmo y que, al final, acabaron generando escepticismo por la pobre implementación de ambas.

Poco a poco los desarrolladores han hecho un uso más acertado de ambas, Wolfenstein: Youngblood es uno de los mejores ejemplos, y con las consolas de nueva generación a la vuelta de la esquina, y la confirmación de que estas soportarán trazado de rayos, el interés por dicha tecnología se ha disparado de nuevo.

Turing utilizó el proceso de fabricación de 12 nm, un salto menor frente a los 16 nm y 14 nm que usó Pascal. Creo que ha sido una generación de transición con la que NVIDIA ha centrado sus esfuerzos en el trazado de rayos y la inteligencia artificial aplicada a videojuegos mediante DLSS, ello explica que el salto en rendimiento bruto y en eficiencia haya sido menor de lo esperado.

Las GeForce RTX 20 han marcado el inicio del trazado de rayos acelerado por hardware, y las GeForce RTX 30 supondrán la maduración del mismo, su consagración. Esto quiere decir que NVIDIA volverá a centrar sus esfuerzos en mejorar el rendimiento de Ampere trabajando con trazado de rayos, y también con DLSS, pero esta vez tendrá más margen para introducir mejoras a nivel de rendimiento bruto, es decir, para mejorar los motores de sombreado y de geometría.

Ampere también supondrá el salto al proceso de 7 nm, una cambio que, esta vez sí, representa una evolución importante frente al proceso de 12 nm que hemos visto en Turing. Dicho proceso debería permitir una eficiencia superior sin tener que hacer sacrificios en materia de rendimiento, es decir, una potencia mayor con un consumo igual o ligeramente inferior al de la generación actual.

Las previsiones más optimistas hablan de una mejora de rendimiento bruto de hasta el 50%, que sería posible gracias a todas las mejoras introducidas a nivel de arquitectura y al aumento de las frecuencias de trabajo (entre 100 y 300 MHz más en la GPU).

Serie GeForce RTX 30: fecha de presentación y posibles especificaciones

Como de costumbre se espera que las primeras tarjetas gráficas en llegar sean las GeForce RTX 3080 Ti y GeForce RTX 3080, es decir, las dos soluciones más potentes de esta nueva generación. NVIDIA dará los primeros detalles de la arquitectura Ampere en la GDC (Game Developers Conference) de 2020, cuya celebración tendrá lugar en marzo.

Durante dicho evento no cabe esperar el anuncio de nuevas tarjetas gráficas, solo la presentación de las líneas generales de esa nueva arquitectura. Durante el Computex de este año, que tendrá lugar en junio, puede que NVIDIA aproveche para anunciar nuevos detalles, pero la presentación definitiva de ambas tarjetas gráficas se espera para finales de 2020, concretamente para el mes de septiembre, aunque algunas fuentes hablan de una presentación durante la primera mitad del año.

No hay nada definitivo, así que ambas posibilidades están abiertas, pero una presentación en septiembre de 2020 tiene más sentido, ya que deja un ciclo de renovación de dos años entre las GeForce RTX 20 y GeForce RTX 30.

En cuanto a las especificaciones esperamos un total de cinco núcleos gráficos para el mercado de consumo general: GA102, utilizado en la GeForce RTX 3080 Ti, GA103, que dará vida a las RTX 3080, GA104, que será utilizado en las RTX 3070 y RTX 3060, GA106, que daría vida a las RTX 3050 Ti, y el GA107, dirigido a las RTX 3050.

A continuación os dejo un resumen con las posibles especificaciones de cada una de esas tarjetas gráficas:

• GeForce RTX 3080 Ti: 5.120 shaders, 320 unidades de texturizado, 128 unidades de rasterizado, bus de 384 bits y 16 GB de GDDR6.
• GeForce RTX 3080: 3.584 shaders, 224 unidades de texturizado, 64 unidades de rasterizado, bus de 320 bits y 12 GB de GDDR6.
• GeForce RTX 3070: 2.816 shaders, 184 unidades de texturizado, 64 unidades de rasterizado, bus de 256 bits y 12 GB de GDDR6.
• GeForce RTX 3060: 2.432 shaders, 152 unidades de texturizado, 64 unidades de rasterizado, bus de 256 bits y 8 GB de GDDR6.
• GeForce RTX 3050 Ti: 1.920 shaders, 120 unidades de texturizado, 48 unidades de rasterizado, bus de 192 bits y 6 GB de GDDR6.
• GeForce RTX 3050: 1.280 shaders, 80 unidades de texturizado, 32 unidades de rasterizado, bus de 128 bits y 4 GB de GDDR6.

Junto a esos cinco núcleos gráficos habrá una versión superior que estará limitada al sector profesional (serie Quadro y Tesla), el GA100. No tenemos referencias fiables sobre sus posibles especificaciones, pero algunos rumores dicen que podría contar con más de 8.000 shaders.

Notas finales: el trazado de rayos es el futuro

Puede que nos guste más o menos, pero está claro que el futuro del sector gráfico pasa por el trazado de rayos. NVIDIA hizo una apuesta total por dicha tecnología a finales de 2018 y lanzó un reto a AMD que será respondido por partida doble. Por un lado tenemos el lanzamiento de las Radeon RX 6000, que serán las primeras tarjetas gráficas de la compañía con aceleración por hardware de trazado de rayos, y por otro lado tenemos a PS5 y Xbox Series X, dos consolas que también contarán con dicha característica.

Contar con una tarjeta gráfica que no cuente con aceleración de trazado de rayos por hardware no va a ser un problema ni a corto ni a medio plazo, ya lo vimos en su momento cuando hablamos del futuro de los videojuegos, pero sí que puede acabar siendo un problema a largo plazo.

De la misma manera que el T&L se convirtió, en su momento, en un requisito indispensable para jugar a títulos de nueva generación el trazado de rayos acelerado por hardware acabará siendo imprescindible en los juegos de próxima generación. Esto no ocurrirá dentro de un año ni dentro de dos, pero a partir de 2023 podríamos empezar a ver los primeros juegos que exijan hardware con dicha característica.

Si tienes una tarjeta gráfica que carece de aceleración de trazado de rayos por hardware no te preocupes, tienes unos cuantos años por delante para seguir exprimiéndola, pero al final todos tendremos que acabar pasando «por el aro» del trazado de rayos.

14 respuestas a «¿Qué se sabe de las GeForce RTX 30?»

  1. Entonces la 3050 sería la competencia directa a la 1060 y 1660 no????,vamos pero con la única razón d ser,sería rtx,mmmmm,ojalá y salgan ya

    1. Desperdicio
      AMD y NVIDIA están dejando de dar soporte y desarrollar CrossFire y SLI respectivamente. Y Los desarrolladores de juego también.
      Por lo menos en sus formas actuales. NVIDIA saco una nueva forma (para ellos pues es cosa vieja) de hacer el proceso, y AMD lo hace sin enkace dedicado. Pero el futuro de más d una tarjeta es algo incierto actualmente
      La cuestión es q influyen para q si quieres más rendimiento te compres una tarjeta más potente y cara, pues ya no quieren q con dos más baratas tenga el de una q cuesta más del doble

      1. Pero a ver, si hoy por hoy me pudiese comprar dos GXT 2060 que estan alrededor de 300 cada una tendria mas rendemiento que con una 2080 por mucho menos dinero y ademas si me falla una me queda la otro y sigo turveando jjj

        1. El problema amigo, es que para aprovechar dos o más tarjetas deben ocurrir algunas cosas
          • el desarrollador del juego haber hecho las cosas para q funcione , y mejor aún, para q funcione bien, con buen escalado de rendimiento
          • NVIDIA y AMD haber creado un perfil multigpu para el juego en Los controladores, soportarlo bien y haberlo optimizado
          • pocos juegos escalan bien en multigpu como para q sea casi total el aprovechamiento

          Y si los Fabricantes y desarrolladores están dejando de hacerlo, ahí tienes el futuro incierto al respecto

          Así q primero hay q ver q juegos dedq los q interesen, y mucho, Por lo que hay que gastar, soportan multigpu

          Y si, dos rtx2060 en teoría, con un juego que esvcale perfecto su rendimiento en multigpu, podrían dar hasta un 30% más de rendimiento costando ahora 200 menos que una RTX2080. Pero en prubeas de muchos juegos con multigpeu (en otras tarjetas), el escalado promedio va a un 75%, asi que como promedio tendrias el mismo rendiminto de una RTX2080 costando 200 menos. Pero de nuevo, esto es si el desarrollador, el fabricnate lo hacen y si no tiene problemas

          Podría buscar el nfo al respecto y escribir aquí sobre el tema actualizado

          1. El tema esta interesante, lo mensiono porque siempre he pensado en eso, me gustaria saber si Amd que ahora esta haciendo mejores drivers tiene buen soporte para crossfire

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *