Hablando de refrigeración en GPUs. Mi RX470 de ejemplo.

Hace un tiempo hablabamos de sistemas de refrigeracion en GPUS. El tema estaba en comparar entre los sistemas abiertos, sistems sopadores o todo en uno/liquidos. Tambien mencionabamos cuantos componenetes son refrigerados activamente y su necesidad, por ejemplo los componentes del regulador/es de voltage.

Enfriadores de tarjetas de video: soplador vs aire libre vs AIO

Desensamblado

Aprovechando que le hice limpieza planificada a la PC, quiero poner de ejemplo un caso de refrigerador soplador, con mi Shappire RX470 OC. Este modelo es idéntico al de referencia definido por AMD en construcción (excepto que es plateada en lugar de gris oscuro) y parámetros, excepto que tiene 16 MHz más en el reloj del GPU, lo que es igual a nada.

Puede verse la estructura, cerrada por todas partes.



Si le quitamos el backplate de aluminio, observamos una parte de contacto mendiante un thermal pad, de la region de la placa debajo de los MOSFET.



Una vez abierto, observamos como el impelente toma el aire y lo lanza a traves de la estructura y sale al exterior de la PC por el panel trasero.

El aire pasa por las láminas del un simple disipador de aluminio. Sin embargo, nos fijamos como la estructrura metálica cubre más de los componentes.

Ya justo antes del radiador, hay uno de pequeño tamaño que cubre a unas memorias, como veremos en otra imagen. Y luego del radiador del GPU+memoria, se observa el propio de los MOSFET del VRM. El aire pasa forzado por todos estos radiadores.

Viendo por debajo el modulo metálico del disipador, observamos las partes de contacto del GPU, los módulos de memoria y los MOSFET. Estaria mas contento si incluyera el disipador un núcleo o el área de contacto de cobre para mejor rendimiento.

Los chips están cubiertos por pasta témica (GPU) y por thermal pads (los modulos de memoria y los MOSFET).

El que el disipador haga contacto con todos los componentes principales es una gran ventaja y da más seguridad, a diferencia de otras tarjetas que su disipador solo contacta al GPU, como esta Asus GTX 760 DirectCU II. Aquí se observa que los MOSFET del VRM solo reciben enfriamiento del aire que pasa a través del disipador, pero sin un disipador propio. Bajo carga los MOSFET alcanzarían elevada temperatura y podrían fallar. De este ejemplo, algo más de información aqui:

¿Qué son los MOSFET y por qué deben mantenerse frescos?

Rendimiento
Ciertamente, es conocido como los sistemas de “soplado” (blowers) estándares son menos efectivos que los modelos personalizados o los del tipo “abiertos” y que requieren de mayor velocidad del ventilador para equiparar el rendimiento. Este tipo de disipador es muy empleado en los modelos de referencia de AMD e NVIDIA y en otras tarjetas como los Xeon Phi de INTEL y otros aceleradores. Su ventaja normalmenete radica en ser mas baratos, sencillos y el aire cálido expulsarlo fuera del sistema. Ver aquí:

Por qué las tarjetas gráficas tope de gama aún utilizan disipadores tipo blower?

En los modelos de tarjetas más potentes, el bloque disipador puede estar formado por una “cámara de vapor”, básicamente similar a los heat pipes, pero plana y cubriendo toda el área de contacto. Esto permite mantener un perfil bajo y mejorar bastante la eficiencia con respecto a un bloque homogéneo de aluminio. Esta variante es muy efectiva. Otros modelos “sopladores” incluyen en el dispador una combinacion cobre-aluminio para una eficiencia intermedia.


Ahora, el caso de esta tarjeta. Su disipación estandar es de unos 150W. El control estándar del ventilador el fabricante lo ajustaba para mantener una temperatura máxima de trabajo de 80 grados. Pero con ayuda en MSI Afterburner de una curva personalizada de control del ventilador, logramos reducir la temperatura maxima a 65 grados. Aquí intentamos mantener el ventilador a baja velocidad para temperaturas igualmente bajas y aceleramos según la temperatura aumenta, al aumentar el uso del GPU. Esto da mas vida al ventilador y permite controlar la temepratura de manera más justa. Incluso se puede detener el ventilador al estar la temperatura por debajo de 50 grados, tal como hacen los fabricantes en algunas tarjetas. En el caso de mi config, solo lo disminuyo bastante la velocidad, para evitar en baja carga, arranques y paradas que pueden afectar, el asunto es encontrar el punto de uso/temperatura en cada tarjeta. Cierto que esto hace ir a mas velocidad al ventilador, lo que puede generar mas ruido y los bujes gastarse antes, pero será menos que lo que hacen algunas por defecto de subir de un salto a alta velocida o lo que manualmente la ajustan a altas velocidades. Esta variante es un compromiso entre estos factores.

Pero en fin, en este caso, queria resaltar como una solución simple, estándar y barata, bien hecha y con algo de ayuda, puede dar muy buenos resultados protegiendo la mayor parte de los componentes que generan calor.

34 Replies to “Hablando de refrigeración en GPUs. Mi RX470 de ejemplo.”

  1. el problema de nosotros es que no sabemos leer o no terminamos de interiorizar lo que leemo y nos mandamos a escribir nuestro ataque verbal a maxima potencia.

    Si es verdad que la 970 es mas rapida que la RX 470 entre un 10 o un 5 o incluso un 15% vale pero cuanto vale en Cuba en relación con la 470 ? cuantos cuc estare dando para un 5 o un 15 % mas.
    de verdad que lo veremos en resultados.
    Además cual es mas moderna ? cual aprobecha mejor todos los drives que han salido, no dejo de reconocer que es muy buena tarjeta y que fuente necesitas para moverla.

    Son muchos problemas para las personas que tienen un presupuesto apretado y decean comprar con un dinerito todo lo nesesario para jugar.
    Por eso dije que es la mejor opción en cuba ya que sale mas barata y rinde un poo menos y trabaja mejor con Vulkan y direct x 12 que sera el futuro.
    no soy necio solo cubano de a pie que no dara una salvaja de dinero por algo que es mas viejo y que me dara un 5 o 10 % de mejoria la cual a efectos practicos no vere.

      1. Maikel sería muy complicado algún artículo tocando el tema del rendimiento de estas tarjetas de uso en video juegos para el Render de imagenes 3d
        con motores como Cycles, Lux Render, Octane, V Ray, Maswell etc… pero hago incapié en el primero por que trabajo Blender?

        No menciono Mitsuba pues a pesar de haber usado material fisicamente bien calculado desde cuando pocos de código abierto como Pov Ray y ninguno de pago salvo VRay.

        Por lo que he modestamente he buscado e interpretado de las busquedas, sigue siendo un gran desconocido además que usa CPU y si también implementase GPU no tengo idea de como hacerlo por que de códigos informáticos me pierdo hasta en la consola de Windows.

        El autor de Mitsuba se llama Wenzel Jakob y lleva varios proyectos en la grafica vectorial 3d. Antes participó en otro render engine llamado Manuka usado en el planeta de los simios

          1. Las rx580 serian unas de las que mejor saldrían a nivel de la gtx1070 o + ya que estas tienen mucho poder de computo pero si seria interesante ver algo así.

        1. tienes que ver que tarjeta da que rendimiento que otra y cuanto rendiiento por coste, como siempre. Ya tengo las paginas, tablas y graficas con los datos, ire armando un articulo al respecto.

          recuerda, el asunto es que rendimiento obtienes a que precio, y el precio es cuanto estas dispuesto a desembolsar y a esa cantidad cuanto rendimiento puede obtener

          tambien hay que ver no solo el rendimiento en render, si no en tiempo de diseño. pero depende del tamaño de las escenas. si son muy complejas, con muchisima geometria y objetos hace falta mas memoria RAm y VRAM. el render puede hacerse alguno a menor calida como previsualizacion, luego que se este segfuro le metes con todo y te vas a tomar cafe

          1. Mano hace un par de aǹos tuve una HD 7870, y viví más de una decepción con AMD y Blender, reviza bien esa info que hasta en Guru 3d dicen lo contrario, por quel entonces, más de una explicación se vieron obligados a dar a la comunidad de Blender los de AMD por no acabar de desarrollar drivers compatibles y que más decirte debian desarrollar desde cero.

            NVIDIA siempre ha ido codo a codo con Blender, AMD vende muy bien la idea de coste rendimiento como si cuidara tu bolsillo pero en la practica va codo a codo con los códigos propietarios.

            Recuerda que la imagen no siempre significa que quien la lleva sea higiénico, ni llal sonrrisa que se tiene el triunfo.

            Gracias a AMD aprendí:
            1- Cuanto se calientan sus tarjetas y pueden romperse luego de buscar alternativas que hagan funcionar su hardware en todo lo referente a Blender a la hora de un render.
            2- Que hasta un conversor de videos tiene en pricipio alguna implementació de los de verde para no amrgarte el día.
            3- Que hablan mucho pero lo que hacen no es el polvillo de lo que ha logrado NVIDIA.
            4-AMD no es ATI.
            y 5-Ahora mismo my freind, NVIDIA get the secret SINCE 19 year ago.

            Gracias y saludos

          2. tuve una R9 270, que es la 2da version de la HD7850 con mejor proceso de fabricacion del chip y frecuencias mayores (la R9 270X es lo equivalnetne a la HD7870). esta la asesiné con un trozo de codigo loco que escribi de trabajo, le jodi alguna memoria.

            me parece que eso que leiste en guru3d es algo bastante viejo, que si, pasaba al inicio. ya lo dices “por aquel entonces”, creo que debes actualizar la info. el funcionameinto AMD/BLNEDER desde 2016-2017 mejoro muchisimo, a fines de 2017 ya estaba muuuy bien en blender 2.7, por no decir ahora. tengo prometido una articulo sobre renderc CPU-GPU en varios soft, tengo la info y estadisticas, pero no he armado el muñeco. solo te pongo esta graficas de los benchmarks internos de Blendes, es de cuando salio la version 2.7, verifica los numeros https://tecn.cubava.cu/files/2019/01/blender-2017-11-24-at-16.52.22.jpg pero los tengo mas actualizados, los dejare para el articulo en cuestion. siempre mirar cuanto cuesta un hardware y cuanto obtiene por ese coste. o este, ya que mencionas las HD7870 https://tecn.cubava.cu/files/2019/01/blender-2017-11-24-at-HD7800.png

            chequea aqui http://blenchmark.com/

            ciertamente, NVDIA a invertido mucho mas en software para aprovechar su hardware, lo que llevó a los desarrolladores a poder dar soporte mas rapdio a varias tecnologias via hard/soft con nvidia

            ciertamente, no es que AMD “cuide tu bolsillo”, empresa al fin su objetivo es ganar $, pero su estrategia y fabricacion se basa en lograr eso, dar el mejor coste/rendiminto posible. que mejor ejemplo que los Ryzen, y mas como vienen los de la serie 3000.

            para nada AMD va “codo con codo con codigo propietarios”, casi todo su codigo de drivers y aplicaciones y bibliotecas es open source, y casi todo esta basdo en estandares abiertos de la industria, y cada vez mas, al contrario de NVIDIA, q creo que lo ultimo que han dado abierto es PhysX pues los desarrolladores estan dejando de usarlo (propietaro al fin, con restricciones y la existencia de otros mas abiertos y estandares) a ver si la gente lo retoma y ahora es que van a dar algo de soporte a VESA Adaptive Sync, un estandar, a parte de su propietario G-Sync; no mejoran su soporte OpenCL, otro estandar, con respecto a su propietario CUDA, etc, por no mencionar, PhysX, GameWorks, y otros etc.

            ciertamente, con las serie 700 y mas con la 900 nvidia redujo bastante el consumo, se metieron bastante en la eficiencia pues trabajaron cosas orientadas al bajo consumo y movilidad, que llevaron muy bien a gpus grandes. AMD mantiene mas consumo, lo que redunda en mas temperatura, energia/temperatura que hay que disipar, pero, todo queda a nivel del disipador, y de como fabrique la tarjeta cada fabricante (Shapphire, MSI, EVGA, Asus, Gigabyte, Zotac, etc, etc, recuerda que AMD e NVIDIA casi no fabrican/venden tarjetas, solo NVIDIA lo mantiene algo con las Founder Edition, AMD a veces hace un modelo de referencia pero muy poco, ahora decidieron hacerlo de nuevo. Este caso a la larga es para sacar algo mas de $ por nombre y apariencia, otros fabricantes lo pueden hacern mejor y mas barato), por eso si miras tarjetas similares que monten gpus de ambos fabricantes, veras que sus temperaturas son parecidas, en dependecia del sistema de disipacion

            los dos mejores “codificadores” de video que conozco, facilemnte los mejores que hay sin duda alguna, son MediaCoder y Handbrake, basicamente son GUIs para los codificadores verdaderos, Handbrake solo para H264 y H265 y Media Coder para un monton bastante grande. Los dos tienen soporte para codificacion en hardware via NVENC (NVIDIA), VCE/NCE (AMD) y QuickSync (Intel). Pero, en ninguno de los casos uso esto, solo he usado QuickSync para unas codificaciones rapidas para salir de ello y no para mi, para codificar video uso x264 y x265 las mejoresimplementaciones que existen para los dos codecs, que es mucho mas lento por ser a CPU puro, pero la calidad es muuucho mejor, el hardware tiene muchos limites que el software no tiene al incluir tecnologias que mejoren la eficiencia. estos dos son lo que uso siempre en añisimos trabajando el tema

            teniendo en cuenta que la division de graficos es mucho menor que NVIDIA y la de CPU, que Intel, basicamente AMD es mucho menor que los dos, compeetir con los dos a la vez, en dos campos distintos, y hacer CPUs y GPUs que compitan con los dos, con menos $$ disponble para I+D y con tacticas sucias de los competidores (por esto multados multimillonariamente unos, supercriticados otros y teniendo que recogerse), vamos, que hay que reconocerles la pincha que han hecho

            del punto 5, no se a que secreto te refieres y menos lo de 19 años.

            si, AMD no es ATI, AMD es mucho mayor que ATI, cubre mucho mas campo, ATI dejó de existir en 2006.

          3. si nvidia ahora quiere dar a AMD un golpesito con uno de los motivos principales para comprar gpus de AMD el VESA Adaptive Sync aun no esta a full para todos los monitores pero de cierta manera lo esta. intel los obligo pero a la hora de comprar una gpu esto era lo único que me haría pensar en radeon y que lo puedan hacer por drivers solamente aonque demuestra que no lo han hecho porque no le daba la gana, es bueno ya que no sera dificil para los menos entendidos.
            pero con truco que solo sera para Pascal y Turing nvidia si no se quedo durmiendo en los laureles como intel

  2. Yo tengo un i3 de 4ta y en estos dias me compro la rx570 aqui las venden en 235 . Pero my board es un H-81cm y en pci es 2.0 por lo que no me trabajara a full en un futuro un Z-97 con un i5.

    1. si me permites opinar, el micro te quedara corto para esa tarjeta, ella acompaña bien, bien a un i5 de 4ta, 5ta y 6ta generación , asi de buena la considero, yo tengo la rx 470 gaming x, con un i5 de 7ma y 32 gigas de ram y por lo que estoy jugando, basta y sobra tarjeta. Por lo que la rx 570 es mejor y mas rapida y potente por o que un i5 de 7ma estaria bien.

      1. socio yo se que el micro se me keda un poco corto, pero imaginate aki conseguir todo el presupuesto para remodelar toda la pc es dificil. me decidi por la tarjeta nadamas porke un socio tiene una 1050 ti, y lo juega todo con un dualcore de 6ta, creo ke es el 4400, que es mucho mas malo ke el i3 4160

        http://thebottlenecker.com/ miren esta pagina, es para calcular si tu pc tiene cuello de botella, esta genial

        https://outervision.com/power-supply-calculator esta otra es para calcular cuanto consume tu pc

        todo esto es buen otenerlo en cuenta

        1. man si sabias que el micro te quedaba corto desde el principio por que lo preguntabas? …no se si el micro se me kede corto…

          y si te quedaban dudas y te ayude a disiparlas porque de tu respuesta …socio yo se que el micro se me keda un poco corto…

          La verdad que lol.

          No ostante como estan los precios en cuba y digo en Cuba. la mejor opción conciderando todo lo expuesto es la RX 470 ya que en todo gana , mejor relación precio-rendimiento.
          rinde mejor que cualquier 1050 o 1050 ti ya sean dobles fan, o de 2 o 4 gigas. y por el mismo precio o a veces inferior.
          tienen mas vida util en cuanto a redimiento en juegos que la gtx970 por casi el mismo precio o inferior.
          valen menos que la RX 570 y por solo un 5 a un 10 % menos de rendimiento en bruto que no es lo mismo que depurado en juegos o en funciones.
          tienen mas memoria que las 1060 de 3 gigas por lo que las dejaran al campo en los proximos años y al mismo precio.
          en fin para cuba es la mejor opción si disponen de un presupuesto limitado, si no es asi , y tienes todo el dinero o pe puedes permitir mas para gastar en una VC , entonces ni escribas aqui , ya que sabemos que mientras mas mejor , pero en cuano a economia vs rendimiento es la mejor.

          1. no entendistes bien o no me exprese bien en el comentario ke hice cuando dije ke no sabia si el micro se me kedaba corto

            no hablaba de cuello de botella para la tarjeta, pues como dije, si se ke hace un poco de cuello. hablaba de rendimiento en juegos actuales, tenia dudas si con el me alcanzaba para jugar juegos actuales, independientemente del cuello ke le haga a la tarjeta

            gracias por los comentarios

          2. el micro corto si esta
            Your processor is too weak for this GPU.
            Core i3-4160 (Clock speed at 100%) with Radeon RX 470 (Clock speed at 100%) x1 will produce 22.13% of bottleneck. Everything over 10% is considered as bottleneck

            talves 22% no parezca tanto pero eso te daria unos tirones en los juegos bestiales un i5 de 2da en adelante con buen reloj se comportaria mejor
            por lo demas 8 gb de ram y ya la RX 470 tiene buen precio y rendimiento
            en cuanto a la GTX970 rinde mas que la 570 un 17% en todo y asi seguira ya que ambas usan DX12, OpenGL 4.5, y Vulkan 1.1 asi que su sopporte en juegos a futuro no cambiara y ademas la 970 le que dan al menos 5-8 años de drivers
            la 570 es la mejorsita de cara a invercion futura pero la 970 rendira mas ahora y de cara al futuro

            (la 1050ti descartada de antemano no compite con ni9nguna de estas 2)
            fuentes:
            https://gpu.userbenchmark.com/Compare/Nvidia-GTX-970-vs-AMD-RX-470/2577vs3640
            https://thebottlenecker.com/calculator

          3. Richard no puedes usar gpuuserbenchmark como medida del mundo real o de rendimiento en juegos.su prueba es muuuuy pero muy sintética y sus operaciones no tienen en cuenta las arquitecturas. La tarjeta que ejecute mejor una prueba en particular gana puntos, no tienen en cuenta ningún aspecto propio de los gpu ni optimizaciones por arquitecturas. Debes mirar la pruebas en juegos, varios juegos, muchos juegos. Como los resultados que ves en el artículo de la página principal. la 970 NO es un 17 % superior en todo, ella y la 570 están parejas, la 970 puede ir mejor en dx11 y la 570 en dx12 y vulkan. Y a mayor resolución, la 570 va ligeramente delante, ya sabes, la 970 y sus dos buses de memoria 😉
            La pruebas de rendimiento pueden ir de pura sintética (como las de gpubenchmark) hasta Real completa (juegos y aplicaciones),pasando por semisinteticas.
            Las que no son reales 100% y más precisas son las 3Dmark, y así y todo esas han tenido sus rollos.gpuuserbech da una medida de rendimiento bruto, pero no rendimiento optimizado y calibrado. Si es para juegos, mira los juegos, que esos son la medida del mundo real, esos son los que la tarjeta tiene que hacer funcionar y lo que uno verá al final. Igual en computo y como responden las arquitecturas, por ejemplo las nvidia en código con flujo más complejo va mejor, las amd en código simple muy paralelo, así cada una tiene aplicacines donde se desempeña mejor.
            con respecto a la 470, la ventaja media de la 970 en ese caso sería de un 10%

          4. ya me mire un vídeo y la 970 también ganaba pero ya me dirás tu que los youtubers no son confiables ademas porque pones por delante a la 470 en DX12 si ambas usan el mismo DX y vulkan eso ya lo dije
            y lo de la 970 y sus 3.5gb rápidos y 512Mb lentos eso no lo notara NADIE ya que para que una situación la obligue a usar TODA su memoria es una con la que el núcleo no podría y no se comportaría bien ni una 980.
            aun así te dejo mas pruebas de WEBS confiables
            https://www.profesionalreview.com/2016/08/04/amd-radeon-rx-470-vs-rx-480-gtx-1060-gtx-970/

            y mira aqui como la 97’0 se comporta mejor en altas resoluciones que la 470 https://www.gpucheck.com/compare/amd-radeon-rx-470-vs-nvidia-geforce-gtx-970/?lang=es&currency=eur

            ahora para tu argumento trata de justificarlo con fuentes como yo y no solo argumento sin respaldar que es mejor una bibliográfia mala que ninguna, se que la 470 es mejor compra en cuando a invercion

          5. Estoy hablando de la 570, no de la 470. la 470 se queda como promedio un 10% por detras de la 970 y 570.
            Otra cosa, las pruebas en las primeras salidas del hardware tampoco son 100% efectivas, hay que esperar maduracion de drivers y juegos, pues en el tiempo el harware puede ir dando mas rendiminto cuando el software lo va usando mejor, por eso hay que ir viendo las pruebas multijuegos/multisoftware mas recientes. Puede ver que desde que salieron algunas tarjetas, se ha ganado a solo software mejorado, a veces hasta un 20% mas de rendimiento. Asi que ver un articulo de un hardware recien salido, es imporante y va dando una idea, pero su potencial real se ve mas alante en el tiempo, a veces tan solo un mes despues ya esta mejor, solo por la proxima actualizacion de los controladores.
            Y lo de DX11/DX12/OpenGL/Vulkan, no es solo el software. Si, las graficas (AMD, INTEL, NVIDIA) usan el mismo software, PERO, las AMD desde las serie HD7000 pueden aprovecharlo mejor las caracteristicas que exponen estas APIs, pues su hardware esta mas preparado, empezando por las unidades de de cómputo asyncronico (AsyncCompute). Nvidia en sus arquitecturas no tienen casi capacidad en hardware para esto (creo que las RXT se lo hicieron mejor), asi que tienen que emular una parte en los drivers (CPUs mas rápidos ayudan aqui), lo que le mete latencias en muchas condiciones en que se usen shders graficso y shaders de computo mezcaldos, cosa que estan hacendo cada vez mas juegos, fundamentalmente via DX12 y Vulkan.
            Deseas fuentes? algunas son de las mas actualizadas que contengan una 470, 570 o 970, no son las de cuando salio el hardware, son posteriores, asi que los rendimintos relativos entre tarjetas van cambiando segun salen actualizaciones y optimizaciones de drivers y juegos y/o juegos nuevos. La que hoy puede estar detras, mañana puede ir delante cuando el soft mejora.

            https://tecn.cubava.cu/2018/11/06/la-mejor-tarjeta-grafica-octubre-2018/
            https://tecn.cubava.cu/files/2018/11/GPUshotout-rx590–500×1024.png
            https://www.pcgamer.com/the-best-graphics-cards/
            https://www.pcgamer.com/amd-radeon-rx-590-review/
            https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html
            https://www.anandtech.com/print/11278/amd-radeon-rx-580-rx-570-review
            https://www.techpowerup.com/reviews/Sapphire/RX_570_Pulse/30.html
            https://www.tomshardware.com/reviews/amd-radeon-rx-470,4703.html
            https://www.tomshardware.com/reviews/amd-radeon-rx-470,4703-3.html
            https://www.trustedreviews.com/reviews/amd-radeon-rx-570-performance-page-2
            https://www.guru3d.com/articles-pages/msi-radeon-rx-470-gaming-x-8gb-review,1.html
            https://www.guru3d.com/news-story/radeon-rx-470-benchmarks.html
            https://www.gamersnexus.net/hwreviews/2884-gigabyte-rx-570-aorus-review-vs-470-580-gtx1060/page-5

            https://www.guru3d.com/index.php?ct=news&action=file&id=15419

            bases de datos de pruebas actualizadas:
            https://www.anandtech.com/Bench/GPU17
            https://www.anandtech.com/bench/GPU18

            mira en algunas paginas los juegos ejemplo DX12 y Vulkan, veras la diferencias, como el Doom, Wolfenstein II, Ashes of Singularity, Hitman, etc por ejemplo
            https://www.tomshardware.com/reviews/amd-radeon-rx-570-4gb,5028-7.html

            En fin, el resumen es, la RX570 y GTX970 van como promedio parejas, las RX570 en DX12 y Vulkan normalmente ganan y la GTX 970 en DX11 normalmente gana. La RX470 va entre 5% y 10% por detras de ambas.

            este le va a encantar a todos, no es de rendimiento pero esta muy cool
            https://docs.google.com/spreadsheets/d/1wGRZ-5sl7G9DhIgwW36g2KnrwVfZqBW7GDKHOd2vbaM/edit?usp=sharing

          6. en resumen ninguna fuente pone a la 470 ni 570 por encima en rendimiento a la 970
            ya que esos son revisados INDIVIDUALES y no COMPARACIONES que es lo que aquí citamos y necesitamos
            mira
            https://www.youtube.com/watch?v=xGqVFSH2hMo
            otro
            https://www.youtube.com/watch?v=vI8-3xOyy1s
            otro
            https://www.youtube.com/watch?v=8Rbi0xV6uZc
            otro
            https://www.youtube.com/watch?v=mTZucnjSC9k
            otro
            https://www.youtube.com/watch?v=mTZucnjSC9k
            otro
            https://www.youtube.com/watch?v=NEksedvJIww

            y adivina quien suele ser la que no por mucho pero sale ganadora???

          7. Acaso miraste los articulos? no parece
            No, no miro youtube como referencia de este tipo (no es referencia) y menos esas pruebas, donde por lo demas ninguno de esos presenta METODOLOGIA para las pruebas. y todos son de 2016 o 2017, para la fecha cuando salio cada tarjeta o poco despues. puede quizaaaas hacerle mas caso a ese que vez a la derecha en tu pagina, a Linus, o a otro que no recuerdo, pero ni asi 100%, pues los review que sacan son generalemnte del momento.
            Y todos lo que pusiste es 470 vs 970, que repito, SÍ, la GTX970 le lleva a la RX470 como media un 10%, lo he dicho 4 veces, uff. me parece que no estas leyendo bien 🙂

            A fin de cuentas lo mas importante es que el 1% de los cuadros mas lentos no baje de 30fps, de ser posible, a una configuracion dada. y mejor si esta por encima de 45

            Queria recoerdarte que tengo que conocer las GPUs y CPUs tan profundo como pueda. todo el software que escribo, lo hago acelerado en CPU/GPU via OpenCL (y OpenGL la visualizacion), lo hago funcionar en los gpus de amd intel y nvidia. Tambien en los CPUs en paralelo, igual aprovechando vectorizaciones, hilos, caches y demas. Asi que hay que saber que de veras es capaz cada gpu y cpu, y arquitectura y como sacarles el jugo a cada uno. de hecho, mucho codigo lo tengo generico CPU/GPU para el usuario que no tuviera GPU compatible, pero voy a eliminar este año el soporte CPU para optimizar solo a GPU, será un requerimiento del software, tener que usar GPU sí o sí en las aplicaciones, de todas maneras el CPU es en estos procesos N veces mas lento y se necesita tanta velocidad como sea posible. pasar de un codigo muy vectorial (los CPUs, y los GPUs viejos) a uno solo escalar y mas hilos (GPUs de HD7000 y GF600 para aca)

            te regalo un pedazo de codigo asesino (y generico), me ha jodido dos tarjetas (alguna memoria), una XFX R9 270 y una MSI RX 470 Armor OC, asi que, NO LO PRUEBES! jajaja. . solo la parte central, no el control iterativo ni de datos, aprieto el texto para que se lleve menos espacio

            __kernel void compute_GM(__global uchar4* meanImage, __global uchar4* frameBuffer, __global uchar4* dstImage, const int frameCount)
            {
            const uint x = get_global_id(0);
            const uint y = get_global_id(1);
            const uint width = get_global_size(0);
            const uint height = get_global_size(1);
            const float e2 = 0.001f * 0.001f;
            const uint pixelPos = x + y * width;
            float4 meanColor = convert_float4(meanImage[pixelPos]);
            float4 A = (float4)0;
            float4 B = (float4)0;
            for (int i = 0; i < frameCount; i++)
            {
            uint framebufferPos = width * height * i;
            float4 bufferColor = convert_float4(framesBuffer[framebufferPos + pixelPos]);
            float4 R = 1.0f / sqrt(e2 + (meanColor-bufferColor)*(meanColor-bufferColor));
            A += bufferColor * R;
            B += R;
            }
            dstImage[pixelPos] = convert_uchar4(clamp(A / B, 0.0f, 255.0f));
            }

    2. Mira el articulo sobre las graficas arriba de la pagina principal y calcula
      La rx570 es ligeramnete mas rapida q la 470. 5 a 10 % a lo mas con un poquito más de consumo energético.
      A mi,Juegos AAA bien optimizados me van a más de 60 fps todo el tiempo. De hecho, yo bloqueo todo a 60 máximo, incluso algunos a 30 fps, como algunos RPG.
      Lo q si es bueno actualmente estar en cuatro núcleos, claro, si se puede

      1. que micro tienes tu? si se puede saber, para comparar. yo pienso ke el 4160 me pinche bastante bien, incluso con los assassins creed ke chupan bastante micro, la tarjeta respalda bastante

          1. si claro, esos juegos consumen mucho micro, aunke tengas una 2080, si no tienes un buen micro el cuello de botella te mata

            es la principal preocupacion ke tengo

    1. una GTX970 que modelo?
      si miras aqui,
      https://tecn.cubava.cu/2018/11/06/la-mejor-tarjeta-grafica-octubre-2018/
      la RX570 es mas moderna que la GTX970
      las dos estan muy juntas. AMD da mejor soporte en juegos con DX12, y Vulkan donde va por encima de la GTX970. En DX11 la GTX970 se defiende mejor. tambien a mayores resoluciones la 570 va adelante, la 970 sufre por su asunto de los buses de memoria, pero esto depnden a que resolucion juegas y el nivel de texturas y algunos detalles graficos. pero es por la minima
      Las demas tecnologias que soporten ambas y otras cosas, depende que busques.
      En fin las dos van parejas en rendiminto como promedio.
      busca aqui los demas articulos al respecto de tarjetas graficas, y decide.

      https://www.muycomputer.com/2018/01/20/gtx-970-radeon-rx-570/
      https://www.game-debate.com/gpu/index.php?gid=3875&gid2=2438&compare=AMD%20Radeon%20RX%20570%204GB-vs-Nvidia%20GeForce%20GTX%20970%204GB

      tambien puede encontrar la 970 mas barata posiblemnte, por lo menos afuera, no se aqui
      quiere ver ejemplo de que consigues con la 470/570,
      aqui veo una 1050 a 200, una 1050 ti a 240 y una RX 570 a 260
      Sin embargo la 570 es casi el doble de potente que la 1050, y la consigues a 60 mas. y un 30-50% mas potente que la 1050ti a 20 mas. ves la ventaja.
      ten en cuenta que aqui estan multado a las tarjetas 100 y algo mas por encima y pero las mas bajas a veces, y pero aun si son nvidia.

    2. socio hoy por hoy una de las mejores tarjetas en relacion calidad-precio es la 570, ademas es mas moderna y creo tiene un pokito mas de rendimiento que la 970

      la gigabyte gamer viene incluso un poco overclokeada de fabrica

  3. wow, buen material, para un dia de limpieza. Yo tengo su hermana la RX 470 Gaming X la cual trae el disipador abierto, el Twin Frozr VI para mantenerla fresca. es man grande su área de trabajo, y cuenta con 2 fans para su control de temperatura. Lo malo es que tienes que tener un buen sistema de flujo de aire dentro del gabinete ya que este sistema te dispersa el calor dentro.

  4. en general no me suelen gustar mucho los sopladores, pero este SI es lindo y no deja las memorias “al campo” para una tarjeta que consume 120W esta bien, para mas TDP no me llama mucho pero es SHAPPHIRE y ellos suelen hacer coolers muy lindos sobre todo los NITRO+

    en cuanto a la 760 YO le inventaría algún tipo de disipador porque esos mofets al aire no deverian romperse pero un disipador como el de la 470 en el VRM nunca esta de mas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *