Tarjetas Gráficas. Rendimiento y Coste/Rendimiento (Cuba). Abril 2018

Saludos. Hoy les traemos la actualización cuatrimestral de rendimiento y relación precio/rendiminto de tarjetas gráficas, para su evaluación y ayudar ha hacer compras informadas. Con una particularidad…

Rendimiento

Empecemos viendo la más reciente actualización de PCGamer.com en su sección de hardware. Ellos emplean un batería de 15 juegos de última hornada en sus pruebas. Configuran a 1080 calidad media, 1080 calidad máxima, 1440 (“2K”) y 2160 (“4K”). Los valores se entregan en cada caso, como imágenes por segundo, promedio y mínimo, se denota el promedio.
PCGamer.com/Hardware. Abril 2018.

El sitio Guru3D comenzó desde mediados de 2017 a hacer un compendio del rendimiento de todos los modelos de tarjetas que prueban, usando un benchmark de DirectX 12. Esta prueba es representativa de videojuegos, aunque no tiene en cuenta las optimizaciones de los desarrolladores. En la gráfica, los modelos sin “nombre bonito”, ejemplo “GeForce GTX 1080ti” son los modelos de referencia, con los parámetros normales y diseño estándar establecido para la tarjeta. Los valores son una métrica entregada por la prueba de rendimiento.

Guru3D.com. Abril 2018.

UserBenchmark emplean en sus pruebas sintéticas de GPUs seis simulaciones de aspectos visuales empleados en videojuegos, que exploten diversas partes y características del hardware. OJO! aqui la palabra es SINTÉTICA, estas pruebas no son características de juegos, es decir, no expresan como se comporten bajo juegos reales, pues no tiene en cuenta las optimizaciones de los desarrolladores, o de los controladores, o el uso de una u otra API gráfica específica y/o como el hardware las maneja. Son mas bien un representación de rendiminto en funciones gráficas estándares. Los valores son relativos al mejor ejemplar, es decir con respecto al una GTX1080ti que representa el 100%, es decir que una GTX970 seria el 42% de potente que la GTX1080ti en este caso.

GpuUserBenchmark. Diciembre 2017.

Ahora, explicar de donde se seleccionan estas tarjetas en específico que vemos en la gráfica anterior. De manera similar a algunos sitios que listan la relación coste/rendimiento, tratamos de hacer los mismo para los que tenemos en el país.

Verán, es un trabajo en apoyo a todos los jugadores y como ayuda a su bolsillo, para obtener lo mejor a un coste dado. Buscamos los datos en los sitios de anuncios más frecuentados en el país, y seleccionamos entradas únicas y valores no repetidos. El límite inferior en hardware está dado por los modelos inferiores que se podrían recomendar a alguien y de los que encontramos anuncios. La siguiente tabla contiene la distibución de muestras de datos, lo ideal seria tener al menos 3 valores, pero no se encontraron en algunos casos, luego con mejor búsqueda pueden aparecer. (*Las AMD RX 560 se toma como que son el mejor modelo, el de 1024 shaders)

No se diferenciaron tarjetas por sub-modelos o fabricante (por ejemplo, las Asus GTX770 ROG/Strix/DirectCU, todas se toman como GTX 770, o las RX 560 de Asus, Sapphire, Zotac, etc, todas salen como RX560). La siguiente es la media geométrica (GeoMedia) de todas las muestras (costes) para cada tarjeta.

Costes

Relación Coste/Rendimiento.

Indica cuanto aporta el hardware segun la inversión realizada. A mayores números, mejor. Los datos están calculados para configuración 1920×1080 y máxima calidad. Recordar que hay algunas entradas con una sola muestra de dato para cada caso, lo que puede desajustar un poco las relaciones con respecto a sus vecinas, usar de guía la gráfica de conteo de muestras.

Veamos con respecto a los datos publicados por PCGamer.com/Hardware desde mediados del año pasado.

Coste (Media Geom.)/Rendimiento. Respecto a los datos de PCGamer.com/Hardware, Julio 2017. mayor = mejor

Para el momento que PCGamer.com/Hardware presenta sus datos de Abril de 2018, han incorporado modos DirectX12 y Vulkan de algunos juegos más, además drivers nuevos con sus optimizaciones y parches de los desarrolladores que mejoran el rendimiento.

Coste (Media Geom.)/Rendimiento. Respecto a los datos de PCGamer.com/Hardware, Abril 2018. mayor = mejor

Comparemos con los datos de rendimiento bruto (pruebas representativas) de Guru3D.

Coste (Media Geom.)/Rendimiento. Guru3D, Abril 2018. mayor = mejor

Ahora, comparemos con los datos de rendimiento bruto (pruebas sintéticas) de UserBenchmark.

Coste (Media Geom.)/Rendimiento. UserBenchmark, Diciembre 2017. mayor = mejor

Y con respecto al coste mínimo encontrado.

Coste (Mínimo)/Rendimiento. UserBenchmark, Diciembre 2017. mayor = mejor

Que se entiende de estos datos

  • Modelos mas viejos dan buen rendimiento todavía.
  • Desconocimiento e infladera, peor que si minaramos cripto-monedas aquí.
  • Hay modelos que ponen ambiguos, en relación a coste y rendimiento real.
  • Se ponen tarjetas de hace 4-5 años como si fueran de esta generación.
  • Las líneas inferiores está superinfladas.
  • Se infla mas NVIDIA, venden percepción.
  • Se vende más NVIDIA, por percepción.
  • Por eso las AMD similares e incluso mejores están con los mejores valores coste/rendimiento, pues las sacan a menores costes.
  • Actualizaciones más adelante en este mismo artículo.

    48 Replies to “Tarjetas Gráficas. Rendimiento y Coste/Rendimiento (Cuba). Abril 2018”

    1. pyro

      tengo una r9 380x de 4gb que me pueden decir de esta tarjeta, no es que me queje pero quiero saber que rendimiento tiene o si debo cambiarla pronto y por cual decir tambien que tengo un monitor compatible con freesync samsung

      Responder
    2. Nicanor FCB

      COMO YA DIJO ALGUIEN POR AQUI….ESTOY AL ROBAR UN BANCO PA COMPRARME UNA TARJETA DE VERGUENZA..JAJAJA
      HAY LA VIDA DEL POBRE.

      Responder
    3. Pacote

      dejenme hacer una pregunta.

      Si quisiera vende mi MSI RX 470 Gaming X 4gb de 10 meses de uso, a cuanto ascenderia el pecio de esa tarjeta perdida en estos momentos.

      Pregunto porque viendo las tablas es una de las que su Coste/Calidad/Rendimiento es uno de lls mejores. y se puede hacer apetecible su venta.

      Responder
        • RichardCraft

          (h)aber mano ak(qu)i ni tanto q han subido los precios es mas bien q(ue) las b(v)iejas no bajan p(or)q(ue) cuando salieron las RX470 4G costaban alrededor de 240Mb y ha(ah)ora se encuentran por unos 250Mb y la RX470 y la RX570 son casi casi la misma asi k(que) no veo
          p(orqu)q todo si en final con precios normales estaria poe 200mb ojo todo new nada uso y si es usada los precios caen pero poco

          nota del editor> jejejeje 😉

          Responder
          • Maikel Autor del Post

            Te voy a dar dos datos a partir del analisis y lo que saque para hacer este articulo, pueden haber variado ligeramente desde entonces
            RX470 (min:250, max:300, media:269)
            RX570 (280) solo encontre una
            ahora puedes ir a la graficas y tratar de medir las demas, jjj

            La RX570 es una RX470 optimizada, es ligeramente mas rapida que la 470, lo suficiente para imponerse a la GTX1060 3GB casi siempre, pues la 470 lo hacia fundamentalmente en DX12/Vulkan. lo que consume un poco mas. Ademas en modo multipantalla no sube erl reloj de la memoria, ahorrando energia y generando menos calor (infimo)

            El MSRP (precio recomendado de salida) de la RX470 4GB era 180, el de la RX570 4GB es 170, las mas caras son siempre modelos modificados, acelerados, con sistemas de enfriaminto mas potentes, etc, pero se puede encontrar modelos muy buenos sin tanto alarde.

            Yo he tenido suerte, las dos tarjetas que me he comprado aqui (una vez una XFX R9 270 en 2015, luego una Shapphire RX 470 en 2017) me salieron a 20 por encima del precio internacional, el asunto es buscar y rebuscar con calma y saber que es lo que de veras hace el hardware, sus capacidades, calidad y estimacion de rendiminto en el timepo, no dejarse engañar por nombrecitos, marcas, ni propagandas. La primera RX470 que me compre (una MSI RX470 Armor) en noviembre de 2016 y del otro lado del charco, me salio en 180, +15 el adaptador de alimentacion 6-8 pines PCIe, pues busque el modelo con conector de 8 pines (estandar 6 pines), luego de estudiar bien el consumo energetico y el amperaje requerido, el real medido y reportado en los analisis en profundidad, para estar amplio y seguro, aunque mi fuente se reia ampliamente de eso. Y repito, como ejemplo, mi RX470 es de diseño de referencia, sin nada del otro mundo (pero bien funcional la disipacion de GPU, memorias y reguladores de voltage) y funciona de maravilla, y con buen ajuste del funcionamiento del ventilador lo mas que sube es a 67 grados, y sabes quien me la ha frenado a veces? el micro, en situaciones de mucha necesidad de calculo de IA y fisica en algunos juegos, en otros con lo mismo y mucho mas cargados ni se entera, 60+fps, asi que se lo achaco a la optimizacion del juego apra esos casos. Ejemplo, en los Doom y WolfenII, a 1920×1080 iban a mas de 60fps todo el tiempo y maxima calidad (bueno, en el Wolf II en calidad “Über”, en “Mein Lebben!” caia mucho no se por que pues en los analisis vi que debia ir bien, quizas eran con la version de 8GB no me fije)

            El otro problema es como las tarjetas de gama baja les suben el precio al doble y mas, ejemplo la GTX1050, que promedio anda por 205, si comparas con la RX470/570 que puse antes ves que con un 25% mas de coste aqui, puedes ganar un 100% de rendimiento. por eso las ves muchas de gama baja en los peores coste/rendimiento, porque compran las mas baratas y las revenden ultra infladas y los que no saben se llevan la de trapo

            Sin embargo para lo que costaban hace un tiempito debido a la criptomineria, las tarjetas de gama media estan mas menos igual aqui, el asunto repito es como las bajas las inflan, y como tu dices, las viejas no bajan.
            Si ves algunas mas viejas con rendiminto similar, estan mas baratas, o con más rendiminto estan similares, por eso por ejemplo, ves una R9270 a algo mas de la mitad del precio de una GTX1050, y la 270 es casi igual de rapida que una 1050. o unx R) 280 que es ligeramente mejor que una 1050ti y “mas mejor” que la 1050 al precio de una 1050. en estos casos, cual escogerias?

            Y como ves a NVIDIA te las “multan” mucho mas, jajaja

            Responder
            • Pacote

              Bravo!!
              Eso es un comentario con explicación, y con casos revisados por ti mismo, ni tanto programa ni tanto grafico. esa explicación de las rx470 saco de dudas, me quedo con mi MSI RX 470 GAMING X 4Gb , hasta ahora no me dice que no a nada, y la tengo con el i7 de 4ta, y 16 de ram, mas que suficiente para disfrutarla unos años sin necesidad de tener que pensar en nada. La pregunta me surgio por toda la expeculación que habia, pero visto el caso y comprobado el hecho, es para estos tiempos una de las mejores opciones de calidad precio rendimiento, una todoterreno para decirlo de algun modo.
              Gracias por las aclaraciones y me quedo mas tranquilo, y contento con ella, el dinero se hara por otro lado.
              gracias.

      • Maikel Autor del Post

        yo tuve una MSI RX470 Armor OC 4GB traida del otro lado del charco, que me salio en lo mimso que la siguiente, ahora una Shapphire RX 470 OC de poco uso y comprada qui, y yo feliz. ahora a como me salio, o como seria, no te puedo decir, si miras solo ponemos una grfica pero ni un numero, tendrias que buscarlo tu mismo.

        Responder
        • Pacote

          Copy the message.

          No fue mi intención desvirtual el sitio, yo se las politicas, es solo que casi no juego en realidad y con una tarjeta mas chica para no dejar ir la cosumbre creo que resolveria y de paso recogeria alguna que otra moneda que bien me viene en estos momentos.

          la otra cosa es que, este sitio es uno de los mas acertados a la hora de debatir entre colegas o personas de la rama.
          Gracias de todos modos, a lo mejor la subasto por una mas pequeña y vuelto.

          Gracias.

          Responder
          • Maikel Autor del Post

            tecdigo la RX470 que tengo ahora con poco uso, fueron dos * 100, en noviembre pasado. una Shapphire RX 470 OC. el diseño es de referencia pero lo bueno es que el enfriamiento incluye a las memorias y el de los reguladores de voltaje esta bueno igual, el aire les pasa forzado y los enfrin bien. asi que es muy segura

            Responder
      • MACC

        Hola muy bueno el articulo pero a mi lo que mas me gustan son los comentarios. Pacote usted y yo deberiamos hablar de tu MSI RX 470 escribeme a marcoscc@ecmvaq.co.cu un saludo a todos y la verdad no se de donde sacan esos tarjetones de video aqui eso esta perdido quizas existan pero este pueblo tiene los vampiros con los dientes mas afilados de la isla. jajaja u saludo y sigan asi con estos articulos y comentarios que me hacen atrasarme tanto en mi pincha jaja.

        Responder
    4. arnova

      yo uso una 660 cu II y todabia da de q hablar nunca la he visto sobre los 60grados, no juego a full es verda aunq aun de pelea es una grafica vieja pero en graficos normales me corre bien el mafia 3 a 30fps, el batlefield 3 lo juego a full , al igual q el batlefield 1 ese, en fin no tengo quejas de esta y en comparacion a precio y rendimiento da mucho de q hablar y no tengo una super maquina cuento con i5 de 4generación 4590 y 8gb de ram y todos los games los corro en 1080p

      Responder
    5. Drako

      el que quiera economia, bajo consumo y correlacion calidad precio que se compre una 750 ti, que no consume, es fria, barata y corre todo lo que hay en el ambiente.

      Responder
    6. Diany

      Quiero comprarme una tarjeta de video de la línea AMD con directx 12 y no tengo claro que modelo debo comprarme había pensado en la RX 470, RX 480, R9 370 X, R9 380 X, R9 380 o la r9 285, pero con los nuevos modelos de la 560 o 460 me ha causado duda, cual me recomiendan ustedes, les agradeceria su ayuda.

      Responder
      • Maikel Autor del Post

        Todas las tarjetas de AMD desde las series HD7000 (HD7730 en adelante) son compatibles DirectX 12 y Vulkan, y de hecho las AMD son las que mejor lo aprovechan por ahora, su hardware esta mejor preparado para estas API graficas que las NVIDIA que cuando las tiene que usar tienen que medio emular un par de cosas. En DirectX 11 las NVIDA y sus drivers como media algo mejores. Las series RX son las mas modernas, potentes y mas eficientes de AMD, consumen menos y calientan menos. Mi recomendacion de esas que mencionas, si te da el presupuesto, en orden de potencia y para juego a 1920×1080 maxima configuracion, mas de 30 imagenes por segundo
        -RX 480
        -RX 470 (esta es la que tengo)
        -R9 380X
        -R9 380
        -R9 285 -esta seria a minima que yo, personalemnte, buscara ahora
        -RX 560 (fijarse que sea la de 1024 shaders, hay una que es basicamete una RX460) mi base minima de recomendacion 30+ con margen.
        -RX 460 (ya aqui cae por debajo de 30 fps en 1080 y max config en juegos actuales, como media)
        -la minima-minima que puedo recomendar es la R7 260X (la menor de generacion GCN 2.0), para el mejor soporte DX12 y Vulkan
        si se puede ir con 4GB de memoria mejor, es lo recomendado, pero si se aprovecha. por ejemplo la 460 tine 4GB pero no logra aprovecharlos bien por su menor potencia bruta
        pero si no encuntras de estas, puedes mirar los dartos aqui dados y en otras ariculos anteriores y ver como se comportan, que relacion coste/beneficio y todo al final depende de cuanto estas dispuesto a gastar
        Lo que una tarjeta que te de mas FSP ahora, si se cuida (vital cuidarlas, fundamentalmente temperaturas) mas tiempo durara dando buen rendiminto en los proximos años. el asunto es mantenr al menos 30 fps. En el tiempo se pueden ir bajando algunos parametros de calidad para ganar en velocidad, que los hay que no se ve la difrencia visual entre Ultra Calidad y Muy Alta Calida, pero en el rendiminto si se ve.

        mira como puedes hacer. miras las primera tabla, ves que la GTX 1050 y la RX560 mantiene justo 30+ cuadro por segundo, luego mira en las demas tablas de rendiminto cuales tienen un rendiminto similar, trata de que esten 30+, luego mira en los datos encontrados en venta cuales de estas aparecen a coste similar. esas seran las que podras comprar ahora con un rendiminto similar.
        o mejor, si ves una que da mas rendiminto y cuesta menos, tendra una relacion mejor

        Es importante mirar el modelo y su construccion, como es el disipador/ventilador, si toca las memorias para enfriarlas, que tal con los reguladores de voltaje, la alimentacion que tal, etc

        Responder
        • Diany

          Muchisimas gracias esto me ayudara mucho, seguire tu consejo y de no conseguirlas ahora por lo precios, esperare y me comprare una RX 470 o una RX 480 y de no poder la 380 X. muchas gracias

          Responder
    7. warcos

      mmm hace unos meses tenia una EVGA GTX 580 1.5 Gb
      ahora tengo una Asus Rog Poseidon GTX 980 4Gb y es un cañon.
      como mi trabajo es Arquitectura y 3D si la vieja GTX 580 fuera de la serie de 3GB aun la tuviera en uso.. por que aun es un animal de tarjeta corre lo que sea..

      Responder
      • yo(el primero)

        bueno deja decirte en algunos casos te va a rendir cerca y cuidado no más que la 980, nvidia estaba haciendo algo que el pico fue en la 580 lo que es no se decirte, pero a partir de ahí sus tarjetas empezaron a rendir más en sentido general pero en “eso” el rendimiento empezó a bajar, yo lo asocio con la potencia doble precisión, pero exactamente no sé, en el visor no te va a dar ni la mitad de fps que la 980, pero en Vray RT en casos que no tengas muchas texturas grandes ni refracciones ni mucha vegetación, para interiores, stands y cosas así, la 580 todavía es muy competente
        de hecho pudieras ponerla en otro pci y el VR te la va a reconocer
        contra la 980 realmente no te lo puedo asegurar porque nunca he tenido las 2 juntas, pero con respecto a la 680 y sobre todo la 780, la 580 es muy fuerte

        Responder
      • yo(el primero)

        mira esto es de un post de blender (yo uso autodesk, no blender, que azco blender) pero fue lo único que me apareció ahora, si recuerdo que cuando puse mi primera flamante 680 me tomó por sorpresa y me decepcionó bastante y como lo mismo le pasó a unas cuantas gentes recuerdo que habían bastante más artículos
        https://www.reddit.com/r/nvidia/comments/4nob5k/rendering_speeds_utilizing_cuda_in_blender_why_is/

        the 780 ti is rated for 210 GFLOPS double precision
        the 980 ti is rated for 176 GFLOPS double precision
        I don’t know whether or not whatever rendered you’re using is in fact using DP math but that is usually the case at least with GI calculations.
        Here’s the funny bit: the gtx 580 is good for 790 GFLOPS in double precision mode since after the 500 series, nvidia started disabling the dp units in geforce chips and saving them for the quadros/teslas, otherwise no sensible person would buy them.

        aunque los números están mal, la 580 no tiene esa salvajada en doble precisión, solo tien 190 GFlops, la 780 tiene 165 GFlops y la 980 tiene 150 GFlops
        así que aunque sea por esa parte la 580 tiene más que ver con una tesla que nuestras 980 jajaja que irónico

        Responder
        • Maikel Autor del Post

          Mas exactamente, en tarjetas de las mas duras, de un solo chip, Simple Precision / Double Precision (flotantes 32bits y 64bits)
          En las GeForce (juegos)
          GTX 580 – SP 1581.1 – DP 197.63 (1/8)
          GTX 680 – SP 3090.43 – DP 128.77 (1/24)
          GTX 780 – SP 5045.7 – DP 210.2 (1/24)
          GTX 980 – SP 4612 – DP 144 (1/32)
          Para no poner muchoso numeros, las Titan empezaron en 1/3 , pero ya van por 1/32 y las ultimas, que tienen media precision (HP, 16bits) las dejaron en 1/64, vaya, solo para compatibilidad, cuando en HP deberia ser el DOBLE de SP (2x SP).

          En las Quadro (profesionales)
          Quadro K6000 – SP 5196 – DP 1732 (1/3)
          Quadro K5200 – SP 2995.2 – DP 124.8 (1/24)
          Quadro M6000 – SP 6070 – DP 190 (1/32)
          Quadro P6000 – SP 10882 – DP 375(1/32)
          FP16 en la que presentaron el mes pasado
          En las Tesla (cómputo), para no poner muchos números, casi todas mantienen una relación 1/2 entre Simple Precisión y Doble Precisión de potencia de computo, ademas de memorias ECC y otras cositas, como FP16 (HP) en las utlimas. Por supuesto, como se emplean en calculos, es necesario tener mas capacidad de computo de alta precision. NVIDIA ha ido separando y diferenciando cada vez mas las capaciades de sus distintas lineas, a nivel de hardware. Antes se podia coger algunas GeForce y con BIOS modificado o drivers modif, la convertias en Quadros, o incluso Teslas, aunque con algunas limitantes, pero los softwares se las tragaban y aprovechan algo y te ahorrabas un saco de billetes. Es decir, que el que sabia, se compraba una “barata” y la convertia casi en una de las supercaras. Ahora el que quiera esas capacidades, que se gaste la pasta.

          Sin embargo AMD mantiene mejores numeros. por ejemplo, mantenian las equivalentes a esas NVIDIA a 1/4, 1/8 y las ultimas Radeon aun se mantiene a 1/16. en media precision las mantinen al la misma potencia de SP, pues convierten los numeros, excepto las Vega, que si meten el doble de simple precision. Igual las profesionales y las de computo, las FirePro y RadeonPro

          No se por que en render utilizaria doble presicion, con 32bits alcanza y sobra para representar lo que sea, y presicion numerica hasta 7 digitos de despues de la coma y a partir de las Fermi, hay FMA con redondeo preciso, y el rango de numeros da casi para contar los atomos del universo, asi que para un renderizador no se para que lo utilizaria, quizas si, para alguna acumulacion numerica en algunas partes del calculo, digamos que al calcular iluminacion global con muuuchas muestras. Incluso hay partes de la operacion de render que se puede hacer perfectamente a media precision, hace mas de 10 años me escribi un raytracer y no recuerdo la necesidad de presicon extrema.

          Responder
          • yo(el primero)

            sí… pusiste números ahí pa hacer dulce ya yo no me acordaba de casi nada de eso
            todo lo que necesite iluminación global, ya sea por raytracing, montecarlo, pathtracing, final gather etc. necesita o mucha precisión o mucha redundancia, (con tal de poder corregir los errores de precisión)
            yo sé que la 980 es mucho más rápida que la 780, así que a partir de un punto toda esa potencia de más en single y en half, la hacen ir más rápida que la otra, que con más precisión doble necesita menos resultados pero igual no da, me imagino que sea además que la tecnología cambia y no es lo mismo un core kepler que un maxwell o un pascal
            lo otro es la escalabilidad, 2 780 no te dan ni de cerca el doble del rendimiento de una 780, con la 980 queda mucho más cerca
            el bache si se notó cantidad con el cambio de 580 a 680 porque todavía no le sacaba tanto en single, half no existía y en doble quedaba por abajo, en fin perder perder
            tarjetas con bastante half precisión son muy buenas en escenas con grandes áreas simples, paredes de color entero o texturas simples y esas cosas

            Responder
            • warcos

              haa que bien, gracias por la info.. bueno como uso actualmente Unreal Engine para presentaciones arquitectonicas me sirve mucho la GTX 980, y en blender el motor de render Cycles…
              vere como puedo usar las dos en SLI para ver que desempeño tienen renderizando en Blender…

              saludos

            • warcos

              haaa por mucho tiempo estuve buscando esa GTX 780 ti es la que en cuanto a costo y rendimiento me servia para renderizado.. pero al subir los precios de las tarjetas casi que compre la primera que vi antes de que se dispararan .. que segun veo…
              los gamers tendran que comprar tarjetas de gama baja para ir adelantando.. por que una de Gama alta actualmente cuesta demasiado..

              maldita minería que para colmo aqui no da negocio..

            • yo(el primero)

              no warcos! SLI no!!… jajaja para estas cosas no juega, me temo que en Unreal la 580 te le va a estorbar a la 980, mejor no la pones, en cycles ya es otra cosa, no lo he usado pero es algo más dependiente de cálculo en sentido general, puedes probar con cada una por separada y luego con las dos
              decía que azco blender por chucho no nada personal… al final lo que importa es el resultado y con lo que lo hagas es igual

            • Maikel Autor del Post

              warcos, has visto la conferencia de Epic en el GDC a mediado de marzo, sobre los mas nuevo y/o proximo en Unreal Engine 4. yo la saque al otro dia, con la de Unity y cosas de Cryengine igual. muy nice. lastima no tengon time para meterle de nuevo a alguno, desde hace unos años. le faje a los tres un poco en su momento. alun dia le meto de nuevo, jajaja

            • warcos

              haa estuve buscando y es verdad .. recomiendan para Cycles que las tarjetas sean de la misma tipologia y marca.. para lograr una compatibilidad ideal para renderizado…
              para UE4 no me sirven en SLI 🙁 .. jeje
              mientras tanto le doy un tim mas a cycles y Blender http://warcos.cubava.cu/

            • yo(el primero)

              @warcos… ya me perdí en las respuestas jajaja
              man muy bien los renders esos que tienes ahí… sobre todo los interiores muy bien conseguidos, un consejo no uses difracción, en el del baño sobre todo se nota bastante, en los demás no sé pero eso aunque mucha gente cree que le aporta (y puede ser verdad) un render de interior comercial es para mostrar lo mejor del interior, esto aplica para productos y bueno casi cualquier cosa… y la difracción en el mundo real, o sea en fotografía es un síntoma de usar un lente barato… y para ningún catálogo de ikea ni de nada importante usan lentes baratos
              para cycles y para casi cualquier motor que sean del mismo modelo es un plus, pero la marca no tiene que ver

            • Maikel Autor del Post

              warcos o ye-el, mandenme a ver, y les mando las cosas vieeeejas que hice alguna vez si me dan algun correo a donde, no les mando los video porque odvio no cabe en correo, jajaj. tirenle a maikelsz8143@gmail.com si tiene salida internacional, si no, avisenme

            • yo(el primero)

              @maikel, compadre yo creo que te puse mi gmail en un post que no tenía que ver con esto, para que me mandaras lo del proxy y la config de red, pero el programita ese que está bueno es solo un trial y no lo veo crackeado en ninguna parte… ya resolví de todas formas con un programa que te alterna entre las configuraciones de red y un acceso directo a la conf del proxy jaja con un click ya estoy ahí y lo quito o lo pongo, no es 100% pero es eones*veces mejor a lo que tenía que hacer antes
              alcantaramanuel67@gmail.com
              oe si puede ser deja mandarte un printscreen de un bateo que me dio un ssd que compré hace poco a ver si me puedes indicar que cosa es… pincha bien pero es primera vez que un ssd me da ese palo, de hecho es primera vez que un ssd me dice nada
              la respuesta de la gente de crucial fue popo… y la gente de micron, los propietarios de la marca ni me han respondido

            • Maikel Autor del Post

              Ese es un error de sectores defectuosos, mal leidos o mal escritos, eso yo lo he visto en los mecanicos, lo pues leer el dato en el SMART. El sistema ve el error y dice que hay sectores por chequear y definir su estado. Eso puede ser un sector real, mareo de la interface de disco o hasta una particula cosmica que altero el estado de una celda, si, jajaja
              Pasale un escaneo con CHKDSK, para que se verifiquen si realmente estan con problemas y el sistema actualice su estado, aunque creo que ya lo hizo. ves como pasa de 0 a 1 y luego de 1 a 0 la cantidad de sectortes por verificar su estado? por eso te dice ahora que no hay problema

              CHKDSK con /f /fixpoint

            • yo(el primero)

              bueno… al final lo volví a poner, lo borré entero y abrí un proyecto viejo y por alrededor de 40 gb escrito sin problema, en la página del hdd sentinel te recomiendan a seguir el log a ver que pasa pero bueno un amigo que arregla pc por aquí me dijo que no tiene nada que fue mareo del sistema
              y lo del bateo que te hablé que dio windows fue en una cosa del pagefile completamente no relacionado con lo del disco hasta en otra fecha distinta, además me corrigió 87 errores críticos rojos!!!! que yo ni sabía que tenía y yo preocupado por 1 advertencia amarilla jajaja
              no una pila 87 de verdad jaja de madre
              pero me dijo que eso es normal en sistemas con mucho tiempo de instalados, cosas de que windows no le llega al internet y boberías de esas

          • yo(el primero)

            ah Maikel manda los renders que quieras y no te preocupes que todo el mundo empezó por alguna parte… al principio lo que yo hacía era… bueno te voy a mandar un render de por allá por los 2000 para que tu mismo veas jajaja que feo brother que cosas más feas
            y te envío también una de los últimos trabajos comerciales, aunque aquí todo el mundo tiene que hacer un poco de todo, en el equipo el mostro en render no soy yo

            Responder
            • warcos

              jajaj igual … cuando empece mandaba unos renders malisimos..candela..

              y wow … se ha extendido la sala de conversacion. jajaj

    8. yo(el primero)

      bueno, échenle un looking a newegg están sacando algunas cerca de su mrsp, las bajan y las suben pero igual de lo más barato que he visto ultimamente… una amistad me alertó y tenían la 1070 más barata que he visto en meses, lástima que era una zotac

      Responder
        • yo(el primero)

          no, me gustan más los coolers y software de msi, y se lo puedes poner a otras pero no es lo mismo, tengo una 980 evga que nunca estuvo a la altura de la msi, siemrpe más caliente y siempre con el clock mas abajo, fue ponerla sola con el precision y resuleto
          de zotac tuve hace muhco tiempo, pero tiempo de verdad jaja una 285 y no hace tanto una 550 de uso pero +- ok para la pc del brother, lo que el le gusta jugar son jueguitos bobos de eso que no llevan gráfico… star craft y eso, la cambió por una asus de amd ni sé el modelo
          las 285 era un horno

          Responder
          • Maikel Autor del Post

            horno y de fundicion de tungteno!! jajajde es gen yo tuve una GTX260 core 216 (la primera tenia 192), lo mas que me subio fue a 75-76 en Medal of Honor: Warfigther y Crisis 2. pero el disipador era simplemente aluminio y ventilador y nunca llegue a usar un Afterburner o Precision cuando aquello.

            Responder
            • yo(el primero)

              si la gente se come un cable con esas tarjetas como ven los números chiquitos, dicen ño una serie 2 eso es d la bomba
              y la 260, hasta la original, rinde más que la mayoría de la gama baja de día de hoy aka 730 etc

            • Maikel Autor del Post

              si, en potencia bruta, pero son solo compatibles hasta DirectX 10 y OpenGL 2.1/3.0, es decir mas del 90% de las cosas modernas no funcionan, aunque tuvieran potencia para moverlas en ciertoa ajustes de calidad, simplemente no se ejecutan. aunque una ves comente como se puede (con suerte) hacer salir algunas cosas, si se tiene un CPU potente, apoyandose en el emulador soft y el control de uso de caracteristicas visuales que viene con el SDK de DirectX

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *