AMD podría hacer una alternativa DLSS con Radeon VII a través de la API DirectML

Hay un desarrollo interesante, como saben, las tarjetas gráficas GeForce RTX tienen núcleos tensoriales, núcleos dedicados para optimizar y acelerar todo lo que AI y Deep Learning. Un engendro de esa tecnología para juegos es DLSS, que NVIDIA está comercializando fuertemente. Con la actualización de octubre de 2018 para Windows 10, Microsoft lanzó la API de DirectML para DirectX 12.

ML significa Aprendizaje automático en máquina (Machine Learning) , y hace posible ejecutar redes neuronales entrenadas en cualquier tarjeta gráfica DX12. Básicamente, la optimización o el algoritmo de Aprendizaje Profundo, si así lo desea, se convierte en un shader que se puede ejecutar sobre el motor de sombreado tradicional, sin necesidad de núcleos tensoriales. En una entrevista con AMD, mencionaron que el equipo está trabajando en esto y, al parecer, Radeon VII parece muy adecuado para la nueva API. El sitio web japonés 4gamer.net habló con el gerente de mercadotecnia de AMD, Adam Kozak. Actualmente, AMD está probando DirectML con Radeon VII y quedó impresionado por los resultados, y esa es una noticia emocionante para AMD que les ofrece una alternativa AI/DL.

Mientras AMD está probando esto en Radeon VII, la lógica obviamente dicta que funcionaría bien en Radeon RX Vega 64 y Radeon RX Vega 56 también. Esto permite, por ejemplo, una implementación alternativa al DLSS de Nvidia.

Sólo 1 + 1 = 2
Por supuesto, si esto se convierte en una cosa con soporte real, entonces no se puede abordar solo con AMD, esta pregunta sigue siendo: ¿los desarrolladores de juegos realmente implementarán, experimentarán e integrarán el soporte para DX ML en los juegos?

También debe decirse, funciona a la inversa, DirectML también podría hacer uso de los núcleos Tensor de Nvidia, lo que sin duda les da una ventaja. Como la tarjeta Radeon vería un impacto en el rendimiento, mientras que las tarjetas RTX pueden simplemente descargar el algoritmo hacia sus núcleos tensoriales. El tiempo lo dirá, pero esto ciertamente es un desarrollo interesante siempre que su tarjeta gráfica sea lo suficientemente potente, por supuesto.

14 respuestas a «AMD podría hacer una alternativa DLSS con Radeon VII a través de la API DirectML»

    1. Yo 19.12.2 y voy a descargar estos días los ultimos
      Y no solo rendimiento un poquito (La comparación de mayor rendimiento es contra los de un año antes), si no tecnologías, pregúntale a Marshme que le gustó lo que probó.

    1. para nada YCH. si sigues la tecnologia a lo largo de los años y el desarrollo de todas las empresas pues incluso tendrias que decir lo mismo de NVIDIA, y de INTEL, y de Apple, y de unos cuantos mas. todos han “inventado” algo que luego otros hacen similar, es un asunto de estandarizacion.

      Ejemplo. DLSS (Deep Learning SuperSampling) es un nombre “comercial” (mas entendible por las personas) para Superresolucion de una sola Imagen, inferida mediante Redes Neurales. algo que tiene unos años ya, y si es sin Redes Neurales, mas viejo todavia y su uso de esta forma (en videojuego, pero igual en todo tipo de imagen o video) ya estaba planteado hace mucho. en otras palabras NVIDIA no lo inventó, lo que hizo es empleando hardware acelerador para inferencias en redes nuronales, aplicarlo en la imagen en juegos. incluso yo me he programado superresolucion en una sola imagen, lo que no con una red neural, sino mediante autoreferecnia y sin diccionario de muestras, y asi quiero hacerlo acelerado en GPU este año para aplicarlo en mi trabajo. La superresolución es mejor todavia si se tiene en cuenta la informacion temporal (entre cuadros de imagen), pero ya en este caso se pone muucho mas pesada computacionalemente (creeme, lo he programado)

      Como ves en el articulo, y si sabes como funciona esto, hacer esta operacion es relativamente “simple”, solo necesitas entrenar la red neuronal con imagenes (muchas) de cada juego, y luego se realiza la inferencia durante la creacion de la imagen. Este proceso es “viejo”. Es basicamente un metodo de reescalado mejorado, para que el raytracing no tenga procesar todos los pixeles, si no menor cantidad (asi sea menor el impacto en el rendiminto), que luego se escala la imagen infiriendo la estructura a mayor resolucion, inferir es predecir +-, no significa que lo que sale sea exactamente lo que debiera salir, es una aproximacion, tan cercana como se pueda. solo hacer el proceso completo da el resultado exacto. Esto es lo que se hace, NVIDIA en sus supercomputadoras, AMD en las suyas. Se ejecuta el juego a muuuucha mayor resoucion o con muchas mas muestras por pixel (ejemplo 64, el MSAA mas alto que he creo que hay es 8X,a si que calcula, es 8 veces mejor) y esto entrena a la red neuronal en como se ve una estrucrura de pixeles a una resolucion muy alta comparado con una menor, asi que “aprenda” como deberia ser mas o mneos a mayor resolucion. Asi cuando dibujas a menor resolucion, se infiere una imagen de mayor reoslucion.

      En este caso AMD lo que intenta es hacerlo estandar, sin atar el proceso a un hardware o API o fabricante, por lo menos si usas windows, gracias que que usaria DirecML, incluso podria funcionar en GPUs de NVIDIA y quien sabe en los proximos de Intel.

      Otro ejemplo, el raytracing no es “de NVIDIA”, el raytracing vienen de mediado de los 70, y con restricciones, ya se hacia en tiempo real desde inicios de los 2000, nvidia lo que usa aqui es DXR, en que ha estado trabajando Microsoft, NVIDIA, AMD, y otros hace un tiempo y salio con el DX12 en la utlima version de Windows. RTX es una capa propietaria de interface con el hardware acelerador que incluyo nvidia para poder hacer la parte mas pesada del RT tan rapido como se pueda. pero como has visto, otros GPUs (de AMD, NVIDIA incluso los integrados de Intel) pueden hacerlo tambien sin tener este hardware, pero mas lento, aunque segun la complejidad de la escena y resolucion, pueden llegar a tiempo real. tener hardware acelerador es un paso odvio, hay hardware asi hace años empleandose en renderfarms, en GPU quien priemro lo tuvo fue PowerVR hace 2 o 3 años y en moviles casi!! pero poco usado. y este es el problema, cuanto se puede facilitar el uso y cuan rapido y efectivo puede hacerse para que los desarrolladores de videojuegos se animen a usarlo.

      Y si tocamos de nuevo a NVIDIA, los han criticado (mas bien al jefe en sus presentaciones) cuando dice cosa como que “invertaron los shaders programables”, cuando quien lo hizo fue Silicon Graphics, y hasta aplicado en el Nintendo 64!! o el GPU por el Transform & Lightning, cuando igual fue silicon graphics, nvidia lo que hizo fue integrarlo todo en un chip. O de los shaders unificados con las serie GF8000, cuando el primer GPU de este tipo es el que tiene la Xbox 360, salido año y medio antes y desarrollado por ATI, que al dedicar muhcos de sus ingenieros a esto de la consola ($), demoraron en trasladarlo al entorno PC medio año despues de las GF8 de nvidia.

      Saliendonos de los graficos, y veas que en la industria esta, esto pasa con todos, otro ejemplo es el multitouch, que Apple decia que lo habian inventado y hasta patentaron, cuando eso estaba inventado de inicio de los 90 por otros investigadores. por no decir unas cuantas mas, solo ver sus presentaciones, y con conocimiento, es para reirse de unas cuantas cosas.

      Y asi muchos casos de tecnologias

      usar efectivamente el raytracing para los grafiocs en juegos es un paso imporante que se iba a dar como fuera cuando se tuviera una tecnologia adecuada. es algo que todos vienen trabajando hace años, NVIDIA dio el primer paso en el mercado, hemos visto la reacciones, las malas y las buenas, pero que viene, viene, y llegara mas a todos, pues los fabrcantes sacaran lo que vienen cocinando hace rato, pero es fundamental la estandarizacion por lo mneos a mayor nivel (DirectX 12 DXR e inicialemnte, extensiones en Vulkan) para que no se arme la rechoalrta y con tanto enrredo les compliquen el asunto y sea dificl de irse adoptanto, lo que retrazaria su desarrollo, expansion y reduccion de coste.

        1. Quien ha dicho q NVIDIA es un copiado?

          Que se los impidió? Lo mismo q les hizo quedarse retrasados años con respecto a Intel en CPU: Fondos para I+D+i. Y q su plan es llevarlo a PC y consola, y a precio adecuado, con más alcance.Eso demora un poco, pero al final es mejor para todos, no o ara los que por par de juegos se han gastado el doble de antes
          Cuantos juegos, Que a al gente les importe, han salido en año y medio de tener RT, creo q 5. Pero teniéndolo en las consolas, y en PC en más gamas de harware más saldrán.

          Freesync es el nombre de AMD para su implementación del ESTANDAR, Adaptive Sync de VESA, un consorcio industrial de estandarización de cosas de video. ASync creo q es incluso más viejo que G-Sync, qe es algo similar PROPIETARIO de Nvidia. Y NVidia fue la que tuvo que usar FreeSync, por obligación o se quedaba al campo en el tema pues todos los demás es eso lo que usan o usaran

          1. bueno yo nunca he visto un monitor a sinc como dices q alla salido antes del gsinc lo primero q se supo de esa tec fue con nvidia el termino A sinc se escucha ahora q estan sacando monitores compatibles para los 2 bandos,pero nvidia no fue obligada kmo dices simplemente lo hiso para tener mas mercado en las targetas por q la gente veia la dif de precios en monitores era grande ,pero los monitores g sinc se siguen haciendo

          2. Primero, estandarización no significa q alguien fabrique de inmediato
            Segundo, AMD no fabrica monitores, q son los que tienen la tecnología, la gráfica lo q debe es ser capaz de gestionar el fríamente y el monitor seguirlo.
            Gsync hace esto vía hardware propietario de Nvidia incluido en el monitor, pero la operación es Casi la misma

            Y Efectivamente, Obligada por el mercado tuvo q dar soporte a Freesync o al estándar. Espero comprendas lo q pasa si casi todos se decantan por algo q hace lo mismo, cuesta menos y es ESTANDAR de la industria, contra lo q hace lo mismo es más caro para el comprador y el fabricante (de los monitores) y es propietario.

          3. al final conviene q amd adopte el ray trazing haci al final todos tenemos mas juegos q c ven mejor pero cuando amd lo implemente no vengan con k es cosa de amd simplemente eso nvidia puede q no sea la q ha inventado el a sinc como dices(pero la verdad el primer monitor con esta tec datan del 2013-2014 y son gsinc) aunque no lo hubieran inventado son los primeros casi siempre en sacar las tecnologias a la mano de todos y las hacen populares para bien o para mal son una marca q es la q marca las tendencias en el mercado al menos de momento.

          4. El raytracing es bien viejo, de los años 70 del siglo pasado.
            El que esta empleando ahora en juegos (porque en aplicaciones profesionales AMD e NVIDIA, y otros, lo aceleran hace aaños) es o mediante DX12 DXR, de lo q RTX es una implementación acelerada, o extensiones a Vulkan, o al pelo por cada desarrollador. AMD cuando saque su implementación (en DXR trabajan desde el inicio Microsoft, AMD ,Intel Nvidia, etc otros) dirá «esta es nuestra implementacion» como nvidia Dice lo mismo con respecto a RTX. DXR es un API abstracta así q cualquiera puede hacer su implementación, el próximo será Intel para sus futuras gráficas, si no las primeras alguna más arriba.
            Hay un punto a tener en cuenta, cuando salga en consolas, recordar q hardware es el q viene dentro y por el cual se guiará fundamentalmente los cdesarrolladores y q será el mismo o muy similar al de las PCs

        2. comente en otra pagina y mi comentario lo borraron parece q alli tambien son fanboys,el echo de q tu inventes algo no quiere decir q tu lo vas a estandarizar por eso existe una profesion q c llama inventor y otra vendedor q el raytrazing es de los años 70 perfecto quien lo puso en las targetas de video de consumo? nvidia .el gsinc es propietario perfecto quien lo puso primero .nvidia la adopcion de la alternativa de vesa paso despues y ademas el freesinc hace casi lo mismo pero no tiene overdrive adaptativo q si tiene gsinc q es para eliminar el ghosting y aqui tuve un lg de 240hz freesinc buen gosting y tambien el ultimo optix de msi q es gama alta el q tiene rgb por todos lados y tiene perro gosting tambien pero claro el q t lo vende no t dice eso aunque por supuesto el precio del gsinc es mas elevado y eso convierte la alternativa con amd y tambien con nvidia ahora q lo soporta mucho mas atractiva por q para el usuario comun al final el problema del ghosting no es algo tan grave.yo el gsinc no lo voi a defender mas por q al final estamos en cuba y el precio es el q manda y este yo lo coji en oferta alla fuera sino de lejos lo pudiera comprar.esta tecnologia freesinc/gsinc es algo q mucho c ha llorado y no es justo q solo gnt con nvidia y pagando d mas puedan disfrutarlo es algo q debe ser para todos haci tngas una integrada.gracias VESA.

          1. Hay q ver si ese monitor era Freesync veraion 1 o 2. La 2 los requisitos son más estrictos para dar la certificación, y al menos los fabricantes asociados a VESA están mas obligados a dar todos los datos de que se cumple y q no en cada monitor

            Y de RT recuerda q nvidia lo q llevo es RT acelerado en hardware especifico, que hasta PowerVR ya lo tenía antes en sus diseños d GPU móviles, aunque los fabricantes no lo usarán. Y en software sobre GPU sin hardware específico, amd e nvidia también lo tienen hace tiempo antes de está nueva ola

    1. no tanto corriendo, pero si haciendo que se pueda usar un simialr al DLSS de NVIDIA de una forma estandar para todos, via la nueva API DirecML de Directx 12, sin usar ninguna tecnologia propietaria o clavada a un hardware especifico

      por supuesto, siendo estandar, NVIDIA puede reencausar el uso de DX12 MDL de alguna forma a sus tensor cores y ejecutarlo para el juego que lo use, a fin de cuentas y de manera similar RTX es una capa por debajo de DirectX 12 DXR, especifica para su hardware

      a menos que se ponga de nuevo a la onda que tenia G-Syn vs A-Sync, que ya vemos como va acabando

      y todos los reportes indican que AMD esta en lo mismo con el RT, hacerlo más general, no atado a un hardware, por lo menos a nivel de software para uso de los desarrolladores, luego como se haga en hardware (como RXT) es otra cosa

      todo esto, bueno, ya se vera mas adelante que sale

Responder a NicanorFCB Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *