Comienzan a reportarse problemas con los modelos custom de la GeForce RTX 3080

Gran cantidad de usuarios con una GeForce RTX 3080 Custom, es decir, de diseño personalizado, están comenzando a reportar problemas por todos lados, desde los foros oficiales de Nvidia, hasta Reddit, los foros de Linus Tech Tips, Overclockers.uk y un largo etcétera. Todos tienen algo en común, y es que el juego termina cerrándose y aparecen en el escritorio.

Parece que muchos modelos están afectados, ya que podemos ver la Zotac GeForce RTX 3080 Trinity, la MSI GeForce RTX 3080 Ventus 3X OC, la MSI Trio o varios modelos de EVGA.

Parece ser, que este problema es común cuando las velocidades Turbo de la GPU superan los 2.00 GHz. Una vez superada dicha velocidad hasta un nivel concreto, el juego se viene abajo. Según el portal alemán ComputerBase, que se puso en contacto con estos fabricantes, estos indicaron que no fueron capaces de reproducir el problema con al menos tres de los modelos personalizados que tenían, así que realmente no se sabe muy bien que está causando este problema, si está ligado al suministro de energía, un error de software, o que las GPUs no son capaces de soportar muy bien el overclock de fábrica de los fabricantes.

¿Tarjeta o fuente de alimentación?

Una teoría es que algunas fuentes de alimentación podrían estar en la raíz del problema. Los propietarios de las tarjetas gráficas dicen que no las han overclockeado, las fuentes de alimentación utilizadas suelen ser de 750 vatios o más.

Resolución temporal

Si experimenta el problema, puede solucionarlo temporalmente reduciendo la velocidad de reloj de la GPU en 50 a 100 MHz de compensación, posiblemente acompañado de un ligero reloj de baja frecuencia. Por supuesto, esta solución rápida es bajo su propio riesgo y requiere los conocimientos necesarios.

Actualización

Problemas probablemente conectados a la opción de diseño de los capacitores por los AIB

Igor’s Lab ha publicado un interesante artículo de investigación donde avanza una posible razón del reciente bloqueo de los problemas de escritorio para los propietarios de RTX 3080.. Por un lado, Igor menciona que los tiempos de lanzamiento fueron mucho más ajustados de lo habitual, ya que los socios de NVIDIA AIB tuvieron mucho menos tiempo del que sería adecuado para preparar y probar a fondo sus diseños. Una de las razones por las que aparentemente sucedió esto fue que NVIDIA lanzó la pila de controladores compatibles mucho más tarde de lo habitual para los socios AIB; esto significó que sus pruebas reales y control de calidad para las tarjetas gráficas RTX 3080 producidas se limitaron principalmente a pruebas de encendido y estabilidad de voltaje, aparte de las pruebas reales de carga de trabajo de juegos / gráficos, que podrían haber permitido el empleo de algunas muestras de chips menos que estelares en algunos de los productos OC de las empresas (que, con frecuencias de funcionamiento más altas y las consiguientes mezclas de frecuencias de banda ancha, golpean la pared de frecuencia aparente de 2 GHz que produce el bloqueo del escritorio).

Otra razón para esto, según Igor, es el diseño PG132 de la “placa de referencia” real, que se utiliza como referencia, “Diseño base” para que los socios diseñen sus tarjetas personalizadas. La cosa aquí es que aparentemente la BOM de NVIDIA dejó opciones abiertas en términos de limpieza y regulación de energía en los capacitores montados. El diseño básico presenta seis capacitores obligatorios para filtrar altas frecuencias en los rieles de voltaje (NVVDD y MSVDD). Hay una serie de opciones para instalar condensadores aquí, con diferentes niveles de capacidad.

Los POSCAP (condensadores sólidos de tantalio de polímero conductor) son generalmente peores que los SP-CAP (condensadores electrolíticos de polímero conductivo de aluminio) que son reemplazados en calidad por los MLCC (condensadores de chip cerámico multicapa, que deben implementarse en grupos).A continuación se muestra la disposición de los circuitos empleados debajo de la matriz BGA donde está asentado el chip GA-102 de NVIDIA, que corresponde al área central en la parte posterior de la PCB.

En las imágenes a continuación, puede ver cómo NVIDIA y sus AIB diseñaron este circuito regulador (NVIDIA Founders ‘Edition, MSI Gaming X, ZOTAC Trinity y ASUS TUF Gaming OC en orden, a partir de los desmontajes de alta resolución de nuestras revisiones). NVIDIA en sus diseños Founders ‘Edition utiliza un despliegue de condensador híbrido, con cuatro SP-CAP y dos grupos MLCC de 10 condensadores individuales cada uno en el centro. MSI utiliza un solo grupo MLCC en la disposición central, con cinco SP-CAP que garantizan el resto de las tareas de limpieza. ZOTAC eligió el camino más barato (que puede ser una de las razones por las que sus tarjetas también se encuentran entre las más baratas), con un diseño de seis POSCAP (que son peores que los MLCC, recuerde). ASUS, sin embargo, diseñó su TUF con seis arreglos MLCC; no hubo ahorros en esta área de circuitos de potencia.

Es probable que los problemas de bloqueo del escritorio estén relacionados con ambos problemas, y esto también justificaría por qué algunas tarjetas dejan de fallar cuando están subbloqueadas en 50-100 MHz, ya que a frecuencias más bajas (y esto generalmente hará que las frecuencias de refuerzo se mantengan por debajo de 2 GHz) hay una menor mezcla de frecuencias de banda ancha, lo que significa que las soluciones POSCAP pueden hacer su trabajo, aunque sea por muy poco.

*************Articulo de IgorsLab*************

La posible razón de las caídas e inestabilidades de NVIDIA GeForce RTX 3080 y RTX 3090

No solo los editores y evaluadores se sorprendieron por las repentinas inestabilidades de las nuevas GeForce RTX 3080 y RTX 3090, sino también los primeros clientes que pudieron obtener tarjetas de socios de la placa de la primera ola. Surgió un patrón de comportamiento interesante que no afectó a todas las tarjetas o fabricantes y los problemas solo ocurrieron a ciertas velocidades de reloj de impulso por encima o alrededor de 2 GHz. Para empeorar las cosas, NVIDIA obviamente también ha socavado ligeramente la gestión de calidad de los socios de la junta (AIC) debido al secreto, inconscientemente, por supuesto, pero con consecuencias plausibles. ¿Una cadena de circunstancias adversas? Este podría ser el caso, porque esto explica el patrón de error algo difuso de los foros más diversos.

¿Inicio de la producción sin control de funcionamiento real?

Empecemos por lo último, antes de perderme en los análisis técnicos. Probablemente recuerde cuando escribí que los socios de la placa aún no podían usar controladores que funcionaran y solo funcionaban con un controlador muy limitado y NVPunish. Dado que el problema del controlador duró hasta poco antes del lanzamiento, pero la primera ola de tarjetas ya tenía que producirse, las pruebas funcionales de los primeros modelos obviamente se limitaron al encendido y la estabilidad térmica. Corriendo, no corriendo. Sin embargo, esto no dice mucho sobre la calidad del chip y las posibles frecuencias máximas que el chip respectivo puede manejar con seguridad.

Por lo tanto, al menos sería plausible que las tarjetas se hayan vendido como tarjetas OC, lo que no habría pasado una prueba de calidad real del fabricante con la configuración entregada. Binning real? Nada. ¿Selección posterior de tarjetas especialmente overclockeadas? Imposible, de hecho. Por lo tanto, no es de ninguna manera imposible que uno u otro chip “Potato” también se haya perdido en una tarjeta OC de este tipo. Conocemos las consecuencias de las publicaciones de los compradores en los foros relevantes.

¿Selección incorrecta de componentes? ¡Plausible!

Ahora veamos el hecho de que incluso las buenas fichas se han ido de vez en cuando. Que son buenos, puede comprobarlo usted mismo, por ejemplo, por el ciclo de refuerzo y las temperaturas. Por tanto, es bastante fácil averiguarlo con una tarjeta seleccionada. Esto nos lleva ahora a un punto en el que en realidad estaba obsesionando inconscientemente el fondo de mi mente al principio, y que luego se solidificó en una comprensión al comparar los tableros de diferentes modelos. Así que vayamos directamente al “tablero de referencia” PG132, que puede también debe entenderse como un denominado Diseño Base. Especialmente la parte trasera y especialmente el área debajo del BGA es interesante. Lo interesante de estos dibujos y de la denominada BoM (Lista de materiales) es que se le ofrecen diferentes alternativas de ubicación..

Tendré (que) simplificar lo siguiente para una mejor comprensión. Debajo del BGA vemos los seis condensadores NECESARIOS para filtrar altas frecuencias en los rieles de voltaje, es decir, NVVDD y MSVDD. Aparte del hecho de que todavía hay suficiente “basura” de alta frecuencia de los convertidores de voltaje, es principalmente la llamada carga de GPU que incluye todos los saltos causados ​​por el impulso, lo que conduce a mezclas de frecuencia de banda muy ancha, que se vuelven más extremas cuanto más alto el reloj de impulso va. El BoM y el dibujo de junio dejan abierto si se utilizan POSCAP (condensadores sólidos de tantalio de polímero conductor) de gran área (marcados en rojo), o más bien los MLCC (condensadores de chip cerámico multicapa) algo más caros. Estos últimos son más pequeños y deben agruparse para una mayor capacidad.

Según la lista y especificaciones de Nvidia, ambos son posibles. Sin embargo, en términos de calidad, los buenos MLCC pueden filtrar mejor los componentes de muy alta frecuencia en particular. Al final, este es un simple conocimiento práctico, que solo choca con la suficiente frecuencia con la visión del mundo de un controlador financiero. Si uno busca en los foros, parece que el Zotac Trinity se ve particularmente afectado cuando se trata de inestabilidades a partir de ciertas velocidades de reloj de impulso de alrededor de 2010 MHz. Una hazaña, porque Zotac depende de un total de seis POSCAP más económicos.

¿Y qué hace NVIDIA con sus propias Founders Editions? Uno lo hace obviamente mejor, porque no pude reproducir estos problemas de estabilidad con ningún FE ni siquiera muy claramente más allá de los 2 GHz (ventilador al 100%). Si algo salió mal, es casi seguro que fue un problema de controlador. Si echamos un vistazo a la FE, vemos solo cuatro SP-CAP (rojo) y en el medio dos grupos MLCC de 10 condensadores individuales cada uno (verde). Esta es definitivamente la mejor solución y el compromiso óptimo. porque especialmente las zonas intermedias deberían estar mejor provistas de filtros adecuados (cortocircuito de las mezclas de frecuencia de alta frecuencia).

Si solo se trata de NVVDD, un solo bloque MLCC puede ser suficiente para resolver los problemas más graves. Por ejemplo, MSI usa solo uno en el Gaming X Trio, lo cual es teóricamente suficiente, pero podría haberse resuelto mejor si, por ejemplo, los 2.1 GHz se usaran con agua. Por supuesto, habría que probar si esto es suficiente. PC Partner, la empresa matriz de Zotac, parece haber reconocido esto y obviamente está cambiando sus tarjetas. Por cierto, el siguiente ejemplo es de un experimento de soldadura que NO fue realizado por Zotac, pero que confirmó la efectividad del suavizado MLCC de manera impresionante. Casi se puede sentir envidia de estas habilidades de soldadura.

Por cierto, también hay que elogiar a una empresa aquí que reconoció todo desde el principio y ni siquiera dejó que los tocara, ya que Asus TUF RTX 3080 Gaming, en consecuencia, prescindió de POSCAP y solo usó grupos MLCC. Mis felicitaciones, encaja!

Curiosamente, todos los socios de la junta guardan silencio sobre este tema, sin importar a quién le preguntes. Ninguna respuesta es también una respuesta, porque este comportamiento es la excepción absoluta y casi se parece a un decreto de bozal. Esto se debe a que los componentes normalmente se hablan libremente cuando el lanzamiento ya ha tenido lugar. Pero aquí no llega más que un silencio significativo. Esto también se aplica a la cuestión de si la lista de materiales se modificó posteriormente de nuevo para excluir completamente el uso exclusivo de POSCAP / SP-CAP.

A veces las cosas son tan obvias que realmente tienes que mirar varias veces para verlas. Pero una vez que lo has entendido, muchas cosas pasan repentinamente de nebulosas a plausibles. Por cierto, no se puede culpar directamente a NVIDIA, porque el hecho de que los MLCC funcionan mejor que los POSCAP es algo que sabe cualquier diseñador de placas que no se haya equivocado de profesión. Tal cosa incluso se puede simular si es necesario. Por supuesto que me quedaré, porque mi interés se despierta naturalmente.

2 respuestas a «Comienzan a reportarse problemas con los modelos custom de la GeForce RTX 3080»

  1. Bueno lamento informarles que no son los condensadores el famoso overclocker derbuer desmintio ese mito y dice que son los silicios patanegra que se encuentran en algunas unidades ya problema fue corregido con un driver que mantiene la frecuencia turbo a 2025ghz sabiendo que Nvidia pone como maximo 1700Mhz o sea que el maximo OC que se le puede hacer es a dicha frecuencia

    1. es parte y parte
      0-apuro
      1-los capacitores, su tipo y configuracion. a Asus no le paso pues antes de sacar sus tarjetas les cambio a todos los modelos los capacitores y su configuracion, y a las Zotac es las que mas le pasa por ser la configuracion mas mala
      2-los chips de menor calidad. esto ya se habia alertado antes de la salida de las tarjetas, que alrededor de un 30% de los chips no estaban estaban a la par de lo esperado
      3-ajustes incorrectos a nivel de driver y bios. de esto hay indicios, y en los drivers nuevos que limitaron frecuencias entre otras cosas. entonces los chipsdel caso 2, que no debian dejar que llegaran a esas frecuencias, fallaban. debian haber seleccionado, separado mejor las tarjetas segun la calidad del chip y definir sus limites. pero regresa el problema de los margenees de ganancia para los ensambladores, por el coste que definio nvidia, que parece haber sido artificial o forzado.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *