Revisión de la Nvidia RTX3080 Founders Edition

Articulo en construcción

Echamos un vistazo a la tarjeta gráfica GeForce RTX 3080/3090 Founders edition. NVIDIA acaba de lanzar este segundo modelo más rápido en la línea RTX 30, que promete ofrecer una gran cantidad de rendimiento junto con gráficos llamativos.

Fue en 2017 cuando el nombre Ampere como arquitectura de GPU apareció en la web y, hasta principios de este año, NVIDIA no había incluido este nombre en ninguna de sus hojas de ruta del lado del consumidor. Fue con el secreto de nivel militar que se desarrolló la parte del consumidor de Ampere. El amperio, por supuesto, es la unidad base de corriente eléctrica en el sistema internacional de unidades. Pero la GPU lleva el nombre de André-Marie Ampère, un matemático y físico francés, considerado el padre de la electrodinámica. NVIDIA tiene un historial de nombrar sus arquitecturas de GPU después de matemáticos y físicos o figuras de campos estrechamente relacionados, por nombrar algunos; Pascal, Fermi, Kepler, Maxwell y, más recientemente, Turing. Si bien no era ningún secreto que las nuevas GPU se basarían en Ampere, hemos visto mucha discusión sobre los nodos de fabricación, la arquitectura y las especificaciones. Todavía,todo el mundo parece haber olvidado que Ampere ya se lanzó a principios de este año para el mercado de HPC. El primer producto basado en Ampere fue el NVIDIA Tesla A100, equipado con una GPU GA100 Ampere basada en 7nm fabricada en TSMC; ese producto tiene 54 mil millones de transistores y 6912 núcleos Shader.

El 1 de septiembre del año 2020, NVIDIA anunció tres tarjetas gráficas Ampere en su ola de lanzamiento inicial. Una semana antes de los anuncios, las especificaciones de las GeForce RTX 3080 y 3090 dieron un giro; el recuento de núcleos de sombreado se duplicó de lo que todos esperaban. Las GPU se fabrican en un nodo de 8 nm derivado de Samsung. Este proceso es un desarrollo adicional del proceso de 10 nm de Samsung, todavía no se aplica EUV en producción. La primera ola de anuncios vería que las GeForce RTX 3080 y 3090 se lanzarían primero y, como una sorpresa, la GeForce RTX 3070 también llegaría aproximadamente en el mismo período de tiempo. El lanzamiento inicial de Ampere para los consumidores implica la GeForce RTX 3070 8GB GDDR6, RTX 3080 10GB GDDR6X y un buque insignia basado en GDDR6X de 24GB, la GeForce RTX 3090.La alineación trae núcleos de trazado de rayos Gen2 y núcleos Tensor de tercera iteración. Todas estas tarjetas serán compatibles con la interfaz PCIe 4.0 y ofrecerán HDMI 2.1 y DisplayPort 1.4a.

La GPU NVIDIA GA102 que habilita a las tarjetas gráficas GeForce RTX 3080 y 3090 es una gran GPU, la GPU GA102-300-A1 de la 3090 está equipada con procesadores 10496 Shader y 28 mil millones de transistores. La GeForce RTX 3080 figura con 8704 núcleos Shader y la GeForce RTX 3070 (GA104) traerá 5888 núcleos Shader a la mesa. En esta revisión, veremos la edición Founders GeForce RTX 3080, combinada con 10 GB de la nueva memoria gráfica GDDR6X.

Arquitectura y tecnologías

La arquitectura Ampere tiene más de 10000 núcleos fp32 (sombreado)

Ampere tiene una arquitectura actualizada que ha obtenido un nuevo diseño SM (Streaming Multiprocessor). One SM es un clúster que contiene sus procesadores Shader. Como la mayoría de ustedes han notado, el número de procesadores Shader era un poco enigma; Parece que misteriosamente el recuento de Shader se ha duplicado de lo que se esperaba en primer lugar.

GA102 contiene tres tipos diferentes de núcleos de cómputo:

Los núcleos de sombreado programables, que consisten en núcleos NVIDIA CUDA, Ampere recibió el doble de capacidades de sombreado.
RT Cores, que aceleran el recorrido y la intersección de Bounding Volume Hierarchy (BVH) de la geometría de la escena durante el trazado de rayos, una unidad gen 2 que ahora es dos veces más rápida.
Tensor Cores, que proporcionan enormes aceleraciones para el entrenamiento y la inferencia de redes neuronales de IA

El GPC es el bloque de hardware de alto nivel dominante con todas las unidades clave de procesamiento de gráficos que residen dentro del GPC. Cada GPC incluye un motor ráster dedicado, y ahora también incluye dos particiones ROP (cada partición contiene ocho unidades ROP), que es una nueva característica para las GPU NVIDIA Ampere Architecture GA10x. El GPC incluye seis TPC, cada uno de los cuales incluye dos SM y un motor PolyMorph. Cada SM en GPU GA10x, luego 128 núcleos de sombreado, cuatro núcleos de tensor de tercera generación, un archivo de registro de 256 KB, cuatro unidades de textura, un núcleo de trazado de rayos de segunda generación y 128 KB de memoria L1 / compartida, que se pueden configurar para diferentes capacidades en función de las necesidades de las cargas de trabajo informáticas o gráficas

Entonces habría más matices que explicar. Se han realizado cambios en el diseño del multiprocesador de transmisión que contiene los núcleos de sombreado. Las GPU de la serie RTX 3000 contienen SM que contienen unidades de cómputo fp32. La arquitectura Ampere admite la ejecución paralela de operaciones FP32 e INT32 con programación de subprocesos independiente. Eso también se describe como ejecución concurrente de la operación FP32 e INT32. Lo nuevo, visto desde Turing, es una combinación de un grupo INT32 / FP32 de procesadores Shader que efectivamente duplica ese recuento de Shader. Mostraremos con un ejemplo:

Las GPU de la serie RTX 3000 contienen SM que en sus bloques centrales contienen unidades de cómputo FP32, y esa también fue una de la generación pasada (Turing). Sin embargo, mire más de cerca. OUn clúster que contiene INT32 ahora es INT32 + FP32. Entonces, para reiterar, el Ampere SM tiene un nuevo diseño de ruta de datos para operaciones FP32 e INT32. Una ruta de datos en cada partición consta de 16 núcleos de sombreado FP32 capaces de ejecutar 16 operaciones FP32 por reloj. Otra ruta de datos consta de 16 núcleos de sombreado FP32 y 16 núcleos INT32. Y ahí está la salsa secreta que se puede encontrar, ya que duplica hasta el doble del rendimiento de sombreado. El resultado de este cambio (en comparación con el Turing superior) es que la unidad es capaz de ejecutar 32 operaciones FP32 por reloj, o 16 operaciones FP32 y 16 INT32 por reloj. Un SM en su totalidad ahora puede ejecutar 128 operaciones FP32 por reloj, y eso es el doble de la frecuencia FP32 de un SM de Turing (que hace 64 operaciones FP32 y 64 INT32 por reloj).Las ganancias de rendimiento variarán en el nivel de Shader y de aplicación según la combinación de instrucciones. Según NVIDIA, los sombreadores de eliminación de ruido de trazado de rayos son buenos ejemplos que deberían beneficiarse enormemente de duplicar el rendimiento de FP32. El doble del rendimiento del sombreado, por supuesto, puede crear cuellos de botella por sí mismos en una etapa anterior del proceso. Por lo tanto, tiene el doble de memoria compartida y rendimiento de caché L1 para el SM, que serían 128 bytes / reloj por Ampere SM frente a 64 bytes / reloj en Turing. El ancho de banda total L1 (128 KB) para GeForce RTX 3080 es de 219 GB / s frente a 116 GB / s (96 KB) para GeForce RTX 2080 Super (Turing). Cada segmento luego conduce a un núcleo Tensor y, por supuesto, a un núcleo RT, ambos nuevamente renovados.El doble del rendimiento del sombreado, por supuesto, puede crear cuellos de botella por sí mismos en una etapa anterior del proceso. Por lo tanto, tiene el doble de memoria compartida y rendimiento de caché L1 para el SM, que serían 128 bytes / reloj por Ampere SM frente a 64 bytes / reloj en Turing. El ancho de banda total L1 (128 KB) para GeForce RTX 3080 es de 219 GB / s frente a 116 GB / s (96 KB) para GeForce RTX 2080 Super (Turing). Cada segmento luego conduce a un núcleo Tensor y, por supuesto, a un núcleo RT, ambos nuevamente renovados.El doble del rendimiento del sombreado, por supuesto, puede crear cuellos de botella por sí mismos en una etapa anterior del proceso. Por lo tanto, tiene el doble de memoria compartida y rendimiento de caché L1 para el SM, que serían 128 bytes / reloj por Ampere SM frente a 64 bytes / reloj en Turing. El ancho de banda total L1 (128 KB) para GeForce RTX 3080 es de 219 GB / s frente a 116 GB / s (96 KB) para GeForce RTX 2080 Super (Turing). Cada segmento luego conduce a un núcleo Tensor y, por supuesto, a un núcleo RT, ambos nuevamente renovados.El ancho de banda total L1 (128 KB) para GeForce RTX 3080 es de 219 GB / s frente a 116 GB / s (96 KB) para GeForce RTX 2080 Super (Turing). Cada segmento luego conduce a un núcleo Tensor y, por supuesto, a un núcleo RT, ambos nuevamente renovados.El ancho de banda total L1 (128 KB) para GeForce RTX 3080 es de 219 GB / s frente a 116 GB / s (96 KB) para GeForce RTX 2080 Super (Turing). Cada segmento luego conduce a un núcleo Tensor y, por supuesto, a un núcleo RT, ambos nuevamente renovados.

Ampere se forma en base a grupos de procesamiento de gráficos (GPC), grupos de procesamiento de texturas (TPC), multiprocesadores de transmisión (SM), operadores de ráster (ROPS) y, posteriormente, los controladores de memoria. El GPC es el bloque de hardware de alto nivel dominante con todas las unidades de procesamiento de gráficos clave que residen dentro del GPC. Cada GPC incluye un motor de ráster dedicado. Ampere tiene un cambio más aquí, lleva dos particiones ROP (cada partición contiene ocho unidades ROP), que es una nueva característica para las GPU NVIDIA Ampere Architecture GA10x.

Hasta 24 GB de memoria gráfica GDDR6X

Digno de un párrafo por sí solo no es solo el ancho de banda para la serie RTX 3000 sino, más específicamente, el volumen de memoria para la GeForce RTX 3090. La GeForce 3080 se lanzará con 10GB de memoria gráfica GDDR6X. Hay una opción abierta para una posible versión de 20 GB más adelante. Eso significa que el bus de memoria tiene un ancho de 320 bits para la GeForce RTX 3080. La insignia GeForce RTX 3090 hará felices a los fanáticos de Flight Simulator 2020, el papá mac de la línea de consumidores de escritorio Ampere se adapta con unos increíbles 24 GB de gráficos GDDR6X memoria. Y eso significa una interfaz de memoria de 384 bits de ancho. GDDR6X ya se ha anunciado y se puede configurar en un rango de 19 a 20 Gbps para configuraciones predeterminadas. Y esa es una gran cantidad de ancho de banda de memoria, ya que se encuentra en aproximadamente 1 TB / seg en tasas de datos efectivas.Entonces, si hay 12 circuitos integrados GDDR6X integrados a bordo, podría alcanzar cerca de 1 TB / s de ancho de banda (velocidad de datos efectiva).

Funcionalidades

La arquitectura de hardware solo pinta la mitad de la historia de las novedades de GeForce Ampere. Aquí, le mostramos rápidamente las nuevas características notables introducidas por la serie GeForce RTX 30. Algunos de estos funcionarán incluso con la serie RTX 20 mediante actualizaciones de controladores. Cuando NVIDIA presentó la serie RTX 20 Turing, la nueva característica más novedosa fue RTX y trazado de rayos en tiempo real, junto con la aceleración de IA. NVIDIA se basa en estos con su arquitectura RTX de segunda generación para grandes mejoras de rendimiento generacional. NVIDIA confía tanto en su mejora del rendimiento que puso sus ojos en el juego 8K. Esto probablemente fue importante ya que las consolas de juegos de nueva generación, como PlayStation 5 y Xbox Series X, anuncian formalmente juegos 4K. No se puede ver que las PC de juegos de alta gama jueguen en el mismo campo.

8K es cuatro veces los píxeles de 4K, o dieciséis veces Full HD, lo cual no es poca cosa. Sin embargo, NVIDIA cree que puede tomar un crack en 8K al usar la nueva función 8K DLSS en combinación con sus nuevas salidas de pantalla que admiten 8K 60 Hz aprovechando DSC 1.2a. 8K DLSS renderiza el juego a 1440p y utiliza un algoritmo especial de Super Sampling 9X para reconstruir los detalles a 8K. NVIDIA demostró que esto se ve mejor que simplemente ejecutar el juego a 8K y hacer que aumente los activos del juego mediante la ampliación bilineal. La compañía también enumeró una gran selección de juegos en los que se obtuvieron velocidades de cuadro superiores a 8K.

Con los juegos de deportes electrónicos competitivos que tienen millones en juego, no es suficiente que se reduzca la latencia de la red y aumenten las velocidades de cuadro. NVIDIA descubrió que la “latencia del sistema completo” juega un papel igualmente importante como la latencia de la red al afectar la competitividad de los jugadores. NVIDIA define la latencia del sistema como el tiempo que le toma hacer clic físicamente en un botón del mouse y registrar el clic en el juego como una acción. En el fragor del juego, la latencia del sistema puede significar la diferencia entre anotar un golpe contra el oponente o escapar. NVIDIA Reflex es una función que trabaja para minimizar la latencia del sistema.

En el lado del software, el controlador de NVIDIA coopera con un motor de juego compatible para optimizar el proceso de renderizado 3D del juego. Esto se logra reduciendo dinámicamente la cola de renderizado, por lo que se ponen en cola menos fotogramas para que la GPU los renderice. NVIDIA afirma que la tecnología también puede mantener la GPU perfectamente sincronizada con la CPU, reduciendo la “contrapresión” en la GPU al permitir que el juego muestre la entrada del mouse en el último momento posible. NVIDIA está lanzando Reflex a los jugadores como actualizaciones de controladores GeForce y a los desarrolladores de juegos como Reflex SDK. Esto les permite integrar la tecnología en su motor de juego con un interruptor para la tecnología y también mostrar métricas de rendimiento en el juego.

Aunque NVIDIA Reflex funciona con cualquier monitor, la compañía también introdujo un nuevo estándar de pantalla dirigido a los jugadores de deportes electrónicos competitivos que denominó NVIDIA G-SYNC 360 e-Sports Display. Este es un logotipo de conjunto de funciones de pantalla que certifica que un monitor presenta un panel de controlador dual IPS con una frecuencia de actualización de 360 ​​Hz, al menos 240 Hz de desenfoque de movimiento ultra bajo (ULMB), el nuevo modo de deportes electrónicos G-SYNC, y soporte de hardware para la función NVIDIA Reflex Latency Analyzer. En estas pantallas, encontrará un concentrador USB de 2 puertos integrado en la pantalla. Conecta este concentrador a su PC mediante un cable USB incluido y conecta su mouse para juegos a uno de los dos puertos USB descendentes del monitor. Puede ser cualquier mouse, pero un mouse certificado por NVIDIA (ASUS, Razer o Logitech) ofrecerá funciones adicionales.

Con el mouse enchufado, inicia la utilidad Reflex Latency Analyzer desde la configuración OSD del monitor y ejecuta el juego con el interruptor de métricas Reflex habilitado. Cada vez que hace clic con el mouse, el clic se registra en el concentrador USB del monitor, que luego mide el tiempo que tardan los píxeles de flash de la pistola de “salida” en aparecer en la pantalla. Puede entrenar a la utilidad para que busque dónde aparecen los píxeles de flash de la boca del arma. De esta manera, obtiene mediciones extremadamente precisas no solo de la latencia de entrada, sino también de la latencia del sistema de un extremo a otro. Algo como esto requería cámaras de alta velocidad y matemáticas manuales para calcular en el pasado. Las latencias de entrada, junto con los datos de latencia de un extremo a otro, se pueden ver en la pantalla de Métricas de rendimiento de la superposición de GeForce Experience, cuando se genera en un juego compatible.

Cuando NVIDIA presentó Ansel hace unos años, generó una nueva clase de arte inmóvil utilizando recursos del juego. ¿Qué pasaría si pudieras hacer películas animadas en 3D con recursos del juego? Este concepto se llama machinima y ya cuenta con una pequeña y creciente comunidad de artistas. NVIDIA quiere democratizar y hacer crecer este ecosistema al presentar el nuevo software Omniverse Machinima. Cuando se utiliza con un juego de apoyo, el software le permite crear películas 3D detalladas utilizando todos los recursos del juego disponibles. Piense en hacer su propia ficción de fans de Star Trek utilizando recursos de STO.

Cuando piensas en RTX, a menudo te vienen a la mente los juegos AAA, y no los títulos de deportes electrónicos competitivos, ya que RTX tiene costos de rendimiento, y los títulos de deportes electrónicos están diseñados para favorecer el rendimiento sobre el atractivo visual. Esto está a punto de cambiar con Fortnite activando RTX. Fortnite utiliza casi todo el conjunto de funciones de RTX, incluidos los reflejos de trazado de rayos, las sombras, la oclusión ambiental y la iluminación global. El juego también implementa DLSS, lo que le permite renderizar a una resolución más baja y usa supermuestreo de IA para restaurar los detalles. Epic afirma que DLSS en 4K se ve mejor que incluso la representación 4K nativa.

El enfriador de la edición Founders (doble flujo axial a través de térmicas)

Fue un tema de discusión candente (perdón por el juego de palabras) durante semanas, la serie Founder hará uso de un diseño más fresco bastante único. Las tarjetas vienen con un PCB compacto para facilitar dos ventiladores en una ubicación única. Esta es una necesidad debido al diseño de consumo de energía de la placa GPU GA102, se extiende a más de 300 vatios (TGP no TDP). Para anticipar ese estrés por calor, NVIDIA presentó un enfriador inusual, en el que los dos ventiladores se colocan en el lado opuesto el uno del otro. El ventilador exterior se coloca en la parte posterior pero también se colocó volteado para que ambos ventiladores soplan en la misma dirección. Sentado debajo de cada ventilador hay un disipador de calor convencional con aletas de enfriamiento de aluminio y estos están conectados a la GPU a través de cinco tubos de calor. El ventilador en la parte superior aspira el aire que pasa ‘a través de la tarjeta gráfica’, el aire fluye hacia la parte frontal (lado del conector),a través del bloque de enfriamiento y luego en adelante. En una carcasa estándar, el aire caliente será expulsado del gabinete por los ventiladores de salida ubicados en la parte superior o por el enfriador de la CPU. El ventilador interno, a su vez, sopla a través de la PCB corta prácticamente directamente sobre el área de la GPU y el VRM, y puede eliminar parcialmente el aire caliente directamente de la carcasa en la parte posterior y superior.


Azul = aire frío, naranja = calor agotado

Ese conector de alimentación de 12 pines

Las tarjetas Founders Edition GeForce RTX 3080 y 3090 utilizarán el nuevo conector de alimentación NVIDIA de 12 pines, mientras que las tarjetas AIB obtendrán los conectores más tradicionales de 8 pines. También será la única tarjeta (por ahora) con ese nuevo encabezado de 12 pines. Se incluirá un cable convertidor de 8 pines a 12 pines con las tarjetas de la edición Founders.

PCI Express Gen 4.0

Una novedad en la lista de especificaciones es la compatibilidad con PCI-express 4.0. El competidor AMD había estado haciendo grandes apuestas con los productos NAVI 2019 y ya se mudó a PCIe Gen 4.0, así como a sus conjuntos de chips y procesadores. Pero, ¿qué aporta PCIe Gen 4.0 a la mesa? Bueno, en pocas palabras, más ancho de banda para que pasen los datos.

En la interfaz 4.0, tendrá dificultades para quedarse sin ancho de banda ya que cada carril se duplica en ese ancho de banda, por carril. Por supuesto, también ha habido un anuncio reciente de PCI-Express Gen 5.0, para mayor tranquilidad, ya lo inserté en la tabla. ¿Qué beneficios tendrá en PCIe gen 4.0 con una tarjeta gráfica? Si vamos a creer en las afirmaciones de rendimiento de Nvidia, las tarjetas RTX 3000 de gama alta probablemente se beneficiarán más del nuevo estándar para aprovechar al máximo los búferes de memoria gráfica.

RTX IO, GPU para acceder directamente a SSD, descarga la CPU

El almacenamiento ha sido tradicionalmente el componente más lento en la PC, que también tiene la sobrecarga más alta (asociada con E / S, compresión de datos y, en algunos casos, cifrado). Con la introducción de NVMe, las tasas de transferencia secuencial de SSD están en un aumento meteórico, al igual que la sobrecarga de E / S de almacenamiento. NVIDIA predice que para un SSD NVMe de 7 GB / s que aprovecha PCIe Gen 4, que está moviendo datos comprimidos a la GPU, la sobrecarga podría tener un impacto tangible en el rendimiento de la CPU, saturando hasta 24 procesadores lógicos.

Uno que es particularmente interesante es RTX IO, un conjunto de herramientas que usa una GPU para la compresión de archivos, este es un intento de mejorar el tamaño del rendimiento de almacenamiento de los juegos. NVIDIA mencionó que el paquete de tecnología RTX IO funciona con la API de Windows DirectStorage para mejorar la compresión del juego en SSD. En consecuencia, su PC puede abrir archivos más rápido, lo que garantiza una experiencia de carga más rápida. Esta aplicación de implementación es similar a lo que sucede en la nueva generación de consolas, la PS5 y la Xbox Series X. Nvidia aspira a resolver los desafíos de IO con RTX IO, dirigiendo los datos de un SSD al Vram y realizando una descompresión sin pérdidas en la propia GPU. . Nvidia señala que los juegos han evolucionado mucho en los últimos tiempos en este sentido gracias al uso de SSD NVMe,pero la alta carga de uso del procesador aún crea dolores de cabeza. El procesamiento de datos directamente en la tarjeta de video ofrece hasta 100 veces más rendimiento que las soluciones actualmente en uso.

El procedimiento también aliviará la CPU y garantizará aproximadamente un 20% menos de trabajo para el procesador. El gráfico que muestra el fabricante muestra lecturas de hasta 14 GB / s con bajo uso de CPU. Windows DirectStorage también debería reducir el tamaño del archivo. Por lo tanto, la tendencia es que los desarrolladores puedan ofrecer juegos con descargas más rápidas y esto se traduce en menos espacio consumido en el SSD. NVIDIA confirmó que la herramienta funcionará con todas las GPU Ampere y Turing, por lo que serían los modelos RTX 20 y RTX 30. Por otro lado, según Nvidia, Microsoft planea comenzar a lanzar DirectStorage para Windows el próximo año. En el lado del juego,el desarrollador debe integrar activamente la API en su juego. Hemos visto ejemplos y han sido impresionantes. La carga de la GPU permanece cerca de NIL y los datos sin comprimir simplemente se descomprimen en una fracción de segundo. Será una mejora enorme (para los juegos que elijan usarlo). Dado que la mayoría de los juegos para consolas de próxima generación tienen algún tipo de preparación para DirectStorage, la compatibilidad con RTX-IO no se quedará atrás. Muy emocionante, pero estimamos que tomará algún tiempo antes de que realmente veamos esto implementado.

Aspecto

La GeForce RTX 3080 está equipada con 10 Gigabytes de memoria GDDR6X, funciona a 19 Gbps (velocidad de datos efectiva) y eso es mucho ancho de banda. Le mostraremos el detalle en la página siguiente. El diseño de enfriamiento se ha revisado para las tarjetas Founder con lo que NVIDIA comercializa como térmicas de flujo axial dual. Básicamente, en el lado inferior se aspira aire, el aire caliente se expulsa en la parte superior y en los lados del puerto del conector. Todas las tarjetas RTX 3080 y 3090 tienen conectores HDMI 2.1, así como la última versión en DisplayPort. Las tarjetas obtienen el nuevo conector de alimentación de 12 pines (cable convertidor incluido que se alimenta de dos conectores de 8 pines).

La NVIDIA GeForce RTX 3080 Founders Edition se entrega en una caja de cartón suave al tacto muy premium. Los elementos incluidos incluyen un adaptador que convierte dos entradas de alimentación PCIe de 8 pines en un conector de alimentación de 12 pines y documentación. La tarjeta GeForce RTX 3080 Founders Edition se siente premium cuando la tiene en sus manos, hay un detalle muy alto en el acabado del producto. El más obvio es, por supuesto, la configuración inusual del ventilador. El panel IO se utiliza como ventilación y muestra cuatro conectores de pantalla, tres conectores DisplayPort 1.4 y un HDMI 2.1 que llevarán HDR de 8K a 60 Hz a un solo cable HDMI. No más conector VirtualLink USB tipo C, ya que ese va por el camino del dodo. La GeForce RTX 3080 Founders Edition mide 29 cm de largo y 11 cm de ancho. Tiene exactamente dos ranuras de grosor, por lo que no es extraño 2.Configuración de 5 ranuras o algo así.

Pesa 1,35 kg, que es un peso muy normal en estos días. Aquí podemos ver el nuevo conector de 12 pines (MicroFit 3.0). Está bien, es una rareza, funcionaría bastante bien con cables de PSU nativos, sin embargo, el adaptador es un poco torpe y difícil de ocultar. Sin embargo, la ventaja es que el conector puede pasar al menos 300 vatios de potencia, el doble que un conector PCIe de 8 pines. La tarjeta se verá genial en una PC de diseño oscuro, pero incluso en un banco de pruebas abierto, es un producto atractivo. Sí, estamos muy ocupados. Se publicará más contenido el día 14 y prácticamente todos los meses posteriores;)

Una vez más, el conector de 12 pines es un poco torpe con el cable adaptador, tendrá dificultades para ocultarlo. Sin embargo, los fabricantes de PSU diseñarán conectores nativos (un solo cable que va directamente desde la PSU) para esto y, en esa situación, es realmente encantador.

Desensamblada

Juegos

1080p

1440p

4K

DXR / DLSS

DLSS

Resumen de Juegos

Cuadros Promedio

Rendimiento Relativo

Rendimiento por dolar

Rendimiento por watt

Resumen grafico

Sintéticos

Cómputo

Consumo

Temperatura

Ruido

Overclock

La tarjeta está casi en su limite energético y esto se refleja en el infimo overclock que se le puede realizar.

Conclusión

+ Huge performance increase over RTX 2080/2080 Ti
+ 60 FPS 4K gaming a reality now
+ Excellent price/performance
+ Idle fan stop
+ Very good temperatures and noise levels for a 320 W dual-slot card
+ 2nd generation hardware-accelerated raytracing
+ DLSS improved
+ Fantastic memory overclocking potential
+ Compact dual-slot cooler
+ New GeForce Features: Reflex, Broadcast, G-SYNC 360, and RTX-IO,
+ Stunning looks
+ Power efficiency improved
+ RGB lighting
+ Support for HDMI 2.1, AV1 decode
+ PCI-Express 4.0
+ 8 nanometer production process
– Makes little sense for gamers without a 4K monitor, or 1440p 144+ Hz
– Runs in power limit all the time
– Overclocking more complicated due to power limit
– Awkward power connector placement

A menos que haya estado viviendo bajo una roca durante las últimas semanas, debe haber escuchado todos los rumores sobre la nueva arquitectura GeForce Ampere de NVIDIA. Se hicieron grandes promesas y me complace informar que todas son ciertas. Sí, la GeForce RTX 3080 se vende por $ 699; sí, es más rápido que RTX 2080 Ti; sí, se han mejorado RTX y DLSS; y sí, las nuevas rocas más frescas.

Debo admitir que estoy más que impresionado con lo que NVIDIA ha logrado con este lanzamiento. Habiendo cubierto mi buena cantidad de lanzamientos de hardware, es común escuchar frases como “es nuestra mejor x hasta ahora” u “oh, estamos tan emocionados” que se esfuman. NVIDIA, por otro lado, hizo un gran trabajo promocionando la arquitectura Ampere, comenzando con la presentación impecable de Jen-Hsun, más detalles técnicos se filtraron lentamente en los próximos días, y los desempaquetamientos ocurrieron hace solo unos días. Hoy, finalmente tenemos los números de referencia, ¡y se ven bien!

En preparación para este lanzamiento, renové nuestro conjunto de pruebas de tarjetas gráficas, agregué varios títulos nuevos, eché algunos más antiguos e impopulares. También volví a probar todas nuestras 27 tarjetas de comparación con los controladores más recientes; la mayoría de estas tarjetas no desempeñarán un papel importante en esta revisión, pero dan una idea de las enormes diferencias de rendimiento.

Promediada sobre toda nuestra suite de evaluación comparativa con resolución 4K, la GeForce RTX 3080 Founders Edition es un 66% más rápida que la RTX 2080 a la que reemplaza (ambas lanzadas a $ 699). ¡La nueva tarjeta de NVIDIA incluso supera al buque insignia de la última generación, la RTX 2080 Ti, por un enorme 31%! La Radeon RX 5700 XT de AMD es la mitad de rápida que la RTX 3080. Sí, la RTX 3080 mejora el rendimiento de la 5700 XT en un + 100%; es mejor que AMD haga las cosas bien con RDNA2. Si ha resistido una GTX 1080 Ti hasta ahora, felicidades, ahora es el momento adecuado para actualizar. El RTX 3080 duplicará su FPS y le brinda las últimas tecnologías y funciones, como trazado de rayos y DLSS.

Cuando se observan resoluciones más bajas, la ventaja del RTX 3080 se reduce considerablemente, + 51% sobre RTX 2080 a 1440p, + 35% a 1080p. La razón es que con tanta potencia de GPU, los juegos se están volviendo cada vez más limitados en la CPU. Un ejemplo de esto es Anno 1800: en una resolución más baja, todas las tarjetas están agrupadas contra una pared de rendimiento invisible de alrededor de 68 FPS en este caso, ese es el límite de la CPU. Ya estamos en una CPU muy rápida, Ryzen tampoco funcionará más rápido. Hemos probado esto ampliamente en nuestra revisión de RTX 3080: 10900K vs 3900XTeso también subió. De regreso a Anno 1800—1080p, la CPU está totalmente limitada en todas las tarjetas de gama alta, y después de cambiar a 1440p, la mayoría de las tarjetas de comparación se quedan atrás en FPS porque su GPU no es lo suficientemente rápida, por lo que se vuelven limitadas por GPU. Las únicas excepciones son la RTX 2080 Ti y la RTX 3080, que alcanzan 67 FPS a 1440p, aún con CPU limitada. Al cambiar a 4K, el RTX 2080 Ti retrocede a 46 FPS, y el RTX 3080 todavía parece bastante limitado por CPU a 63 FPS. Si bien es desafortunado, los límites de la CPU son una realidad de los juegos: el RTX 3080 no le dará mágicamente 360 ​​FPS en todos los juegos, ninguna tarjeta gráfica puede hacerlo. La potencia de la CPU, los motores de juego y los desarrolladores deben ponerse al día con el nuevo rendimiento primero.

La GeForce RTX 3080 es perfecta para juegos 4K. Es capaz de superar los 60 FPS en casi todos los títulos, con la única excepción de nuestro conjunto de pruebas Control, que se ejecuta a 48 FPS. NVIDIA tiene un as en la manga: DLSS, que muestra el juego a una resolución más baja y mejora el marco a la resolución de su monitor nativo. Si bien el escalado tradicional viene con imágenes borrosas y artefactos, NVIDIA DLSS usa IA para mejorar el escalado. El algoritmo ha mejorado a lo largo de los años, pero el concepto básico permanece. El aprendizaje automático se utiliza para entrenar un modelo para que se destaque en la ampliación del contenido del juego. Si bien solo unos pocos juegos admiten DLSS en este momento, los números están creciendo rápidamente. Lo mismo ocurre con el trazado de rayos, que fue iniciado por NVIDIA, adoptado por Microsoft, y ahora está siendo presentado en las consolas de próxima generación en esta temporada navideña.La compatibilidad con Raytracing en consolas es una confirmación de que los desarrolladores de juegos lanzarán títulos con la nueva tecnología: NVIDIA está ahora en la generación dos de su tecnología RTX, y puede apostar que aprendieron mucho de Turing. La cantidad de núcleos RTX se ha incrementado significativamente en Ampere, y se han agregado varias optimizaciones, probablemente más de las que nos dice NVIDIA.

Agregamos una nueva página a nuestras revisiones de NVIDIA, que analiza más de cerca el rendimiento de RTX y DLSS específicamente. En Metro Exodus, por ejemplo, el RTX 2080 Ti alcanza 73 FPS con RTX apagado a 4K. Cuando activa el trazado de rayos, la velocidad de fotogramas cae a 38 FPS, demasiado baja para muchos, razón por la cual esas personas descartaron la viabilidad del trazado de rayos. Con el aumento masivo de Ampere en el poder de sombreado y las mejoras de RTX, ahora está viendo RTX de 55 FPS activado frente a RTX de 96 FPS desactivado; esa es una compensación mucho más aceptable para la mayoría, diría yo.

El uso de NVIDIA DLSS puede mejorar aún más estas velocidades de fotogramas. Llevamos Control a la banca; el RTX 3080 cae de 48,3 FPS con RTX y DLSS desactivados a 28,2 FPS con RTX activado, lo cual no es bueno. Una vez que habilita DLSS, vuelve a 52.4 FPS, que es incluso más alto que con RTX y DLSS desactivados. Por supuesto, DLSS no tiene la misma calidad que el 4K nativo, pero está muy cerca, y puedo ver cómo una gran parte de la audiencia estará dispuesta a cambiar algo de calidad de imagen por efectos de trazado de rayos.

El nuevo diseño de la Edición Founders de NVIDIA ha sido tema de interminables discusiones. Después de haberlo probado exhaustivamente, debo admitir que NVIDIA logró superar a toda la industria de tarjetas gráficas de diseño personalizado. La nueva Founders Edition sigue siendo un diseño compacto de doble ranura, pero puede funcionar con una potencia de placa de 320 W sin ningún tipo de estrangulamiento térmico. Las tarjetas anteriores de Founders Edition estaban restringidas térmicamente todo el tiempo, lo que NVIDIA en su día mitigó muy bien con sus algoritmos de impulso. Lo que es aún más impresionante es que los niveles de ruido en la nueva FE son muy buenos, aunque no muy silenciosos; esa es una expectativa poco realista de una tarjeta de doble ranura que funciona a más de 60 FPS a 4K. Los ventiladores son audibles, pero no ruidosos ni molestos de ninguna manera. Una de las mayores críticas sobre las tarjetas anteriores de Founders Edition fue que not apoyar la parada del ventilador. NVIDIA RTX 3080 FE también marca esa casilla. Cuando no está jugando, lo que incluye productividad, navegación y transmisión de video, la tarjeta apagará sus ventiladores por completo para una experiencia perfecta sin ruido.

Gracias al nuevo proceso de producción de 8 nanómetros de Samsung y varias mejoras en el silicio y la arquitectura, la GeForce RTX 3080 está estableciendo una vez más un nuevo récord de eficiencia energética. Medimos una mejora de alrededor del 17% con respecto a la RTX 2080, la tarjeta anteriormente más eficiente en 4K. Si bien el 17% no es una diferencia monumental, sigue siendo clave para lograr los niveles de rendimiento que puede ofrecer el RTX 3080. Si la GPU fuera menos eficiente en energía, el límite de energía aceleraría la tarjeta antes, lo que resultaría en un rendimiento más bajo. La alternativa sería una configuración de límite de potencia más alta, pero la tarjeta se calentaría más y el ventilador tendría que ser más ruidoso. El nuevo conector de 12 pines tiene mucho sentido, pero no estoy convencido de que un nuevo conector sea absolutamente necesario. También estoy cuestionando el posicionamiento en el medio de la tarjeta.Esto se convertirá en una pesadilla para las personas con TOC sobre esconder los cables en su estuche. Tengo que aplaudir a NVIDIA por incluir un adaptador de 12 pines a 2 x 8 pines con cada tarjeta Founders Edition, ya que garantiza que las personas puedan comenzar a jugar de inmediato sin tener que buscar cables adaptadores de calidad potencialmente cuestionable. NVIDIA nos confirmó que cada diseño personalizado que utiliza los 12 pines también debe incluir cables adaptadores.

El overclocking en Ampere es prácticamente lo mismo que en Turing. Está limitado por la potencia máxima de la placa, aunque NVIDIA incluye la opción de aumentar el límite de potencia desde el valor predeterminado de 320 W hasta 370 W en el software OC. Si bien el potencial de overclocking de la GPU era escaso en nuestra tarjeta, solo un pequeño porcentaje, el overclocking de memoria fue muy impresionante. GDDR6X es una nueva tecnología de memoria que es más compleja que nunca, pero podríamos aumentar los relojes de la memoria en más del 10%. El rendimiento general mejoró en un 4% con el overclocking.

NVIDIA siempre ha sido criticada por sus altos precios en el pasado; parece que escucharon los comentarios. El RTX 3080 Founders Edition se vende a $ 699, que es un precio extremadamente competitivo. Recuerde, el RTX 3080 es dos veces más rápido que el RX 5700 XT ($ 370) y un 31% más rápido que el RTX 2080 Ti ($ 1000 +). Parece que NVIDIA se preocupa principalmente por las nuevas consolas, que llevarán juegos de alta fidelidad a las masas a precios de alrededor de $ 500. Cobrar $ 1000 por una tarjeta gráfica será una venta difícil para muchos cuando pueden tener una consola de juegos completa por $ 500. Al precio de RTX 3080, realmente no hay alternativa, ¿tal vez un RTX 2080 Ti usado a precios de ganga? No estoy seguro, definitivamente nada de lo que ofrece AMD en este momento. Estamos trabajando en varias revisiones de diseños personalizados de RTX 3080 de socios de la junta que estarán disponibles muy pronto.Será interesante ver si sus cartas podrán igualar o superar la RTX 3080 Founders Edition. NVIDIA puso el listón muy alto.

Fuentes: Anandtech, Guru3d, TechPowerUp, ElChapuzasInformatico, Xataka

3 respuestas a «Revisión de la Nvidia RTX3080 Founders Edition»

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *