Lost Coast con HDR y Radeon x800, va bien.



  • He leido por ahi que las x800 no soportaban HDR en Far Cry y era un problema del juego no de la tarjeta, la x800 soporta HDR perfectamente y creo que es así, porque en Lost Coast con HDR activado va bien, y solo baja 4 fps de no tenerlo activado, mi CPU no es de lo mejor y jugando sin HDR va a unos 30 fps y con HDR activado va a 26 fps, asi que con una Atlhon64 y una x800 se tiene que jugar con HDR perfectamente.
    Ademas añado que se puede poner HDR y antialiasing todo junto, no se si ya se sabe, pero lo que siempre leo es que es incompatible, excepto en las nuevas tarjeta Radeon X1xxx, que pena de no saber poner las capturas.
    Creo que les interesa más vender la nueva la X1xxx pero las X800 y x850 valen igual.
    Tengo un par de capturas pero no se como se ponen.
    Por cierto anda que no se nota, se ve todo mucho más real, pero sin el exceso de luz que se ven en algunas capturas por la red, no se ve como si le subieran el contraste como he leido por ahí, no tiene nada que ver con el contraste, las sombras… todo más real y la x800 lo soporta perfectamente.


  • Veteranos HL

    Hay muchas formas de aplicar HDR, lo que pasa es que la más fácil de desarrollar no es compatible con las X8xx. La versión de Valve no utiliza FP16 en el render target como en el Far Cry, que es la limitación que impide su utilización en la gama X, sino que utiliza extensión de rango con enteros que es muchísimo más complicado de diseñar para que quede bien.

    La limitación de las tarjetas nVidia entre el HDR con FP16 y el AA es debido a no son características ortogonales, esto es, no son independientes en su utilización. Debido al diseño de la tarjeta, no permiten la aplicación de antialiasing si el tipo de datos utilizado es FP16 en vez del RGBA normal.

    No hay una conspiración por parte de nVidia y ATI para vender más tarjetas, es simplemente que no es factible desarrollar el método de HDR de Valve para las compañías pequeñas, con poco presupuesto. Solo hay que ver el tiempo que han tardado en sacar el Lost Coast, y lo corto que es el mapa.



  • Seguramente el HDR de HL2 sera más dificil de programar porque puede que tambien busque más calidad, he visto alguna captura de HDR por internet y muchas son solo aumentar el brillo y el contraste y oscurecer el fondo, pero en HL2 veo que va más allá, es más realista.
    Si los de Crytec sacaran un parche HDR bueno para Farcry…seria la hostia, porque Farcry es para mi el rey, con diferencia.


  • Veteranos HL

    No, nunca vas a tener más calidad con enteros que con coma flotante, al menos a igualdad de material con el que trabajes y a igualdad de bits por pixel. La cuestión es que en el caso del Lost Coast se diseñó desde cero para este efecto, mientras que el Far Cry el juego se diseñó para el modo normal de iluminación, y posteriormente se añadió el modo HDR, utilizando las mismas texturas y modelos que en el modo normal. Fíjate cuanto ocupa el nivel lost coast, y fíjate cuanto ocupa el parche 1.3 del Far Cry.

    El modo de Valve está desfasado tecnológicamente desde su diseño, lo que pasa es que no querían alienar a toda la base de DX9 que no permite FP16 en el render target (toda la gama DX9 de ATI salvo las X1) por lo que eligieron este modo. Es muy difícil que salga algún juego más que utilice este tipo de HDR debido a que implica tener que diseñar todas las texturas de nuevo (solo hay que ver que no se permite activar HDR en el Half Life 2 tradicional) y los juegos ocuparían muchísimo más espacio en texturas sólo para esto. Además hay que tener en cuenta que la XBox360 si permite HDR FP16, y estoy seguro que la PS3 también por tener un chip gráfico similar al G70 de nVidia, por lo que todas las conversiones que vengan desde consolas van a utilizar este modo de HDR. Un primer ejemplo va a ser el Oblivion, que sale dentro de poco y veremos cómo únicamente las X1 y las 6 y 7 de nVidia permiten HDR.



  • Ok creo que lo voy pillando, el HDR de FarCry se aplica sobre una misma textura, y en HL2 se necesita una textura para el modo "normal" y otra especial para el HDR, por eso es más costoso y no sale a cuenta, perdona por mi expresión poco técnica pero esque no estoy mucho en el tema, aúnque creo que me lo has explicado muy bien.
    gracias.


  • Veteranos HL

    Un correo en el que me explicaron el motivo de forma más técnica:

    _La cuestión es que es discutible llamar HDR a la implementación de Valve.

    Yo lo llamaría HDR-S, esto es, high dynamic range storage, en vez de high dynamic range rendering. La cuestión es que siguen renderizando en 8bit por canal pero lo hacen utilizando algunas texturas de mayor rango. Creo que lo más probable es que sea un renderizado de menor rango dinámico ya que creo que solo se utiliza el rango 0-127 de color, con la parte superior del rango desde 128 hasta 255 siendo usada para el efecto bloom.

    El resultado de todo esto es que mientras que puedes computar el brillo de la imagen (para el valor de tone-mapping en el siguiente frame), el valor no es del todo ajustado, y el resultado es que el efecto de exposición tone-mapping dinámico no es tan efectivo como debería ser, por lo que por ejemplo objetos muy pequeños pero muy brillantes (el sol) no contribuyen al brillo final todo lo que debieran. Los de Valve siguen utilizando un efecto lens flare para hacer que el sol sea 'brillantoso', si no lo hubieran hecho, y miraras al sol, se vería sobreexpuesto.

    Por ello el antialiasing funciona en la implementación de Valve, ya que el paso de tone mapping no es un efecto de postproceso, sino que es un efecto que se efectúa al final de cada shader.

    Los de Valve podrían haber mejorado el efecto almacenando un valor no lineal para los colores por encima de 127, pero entonces el blending no funcionaría correctamente, y seguiría siendo 8 bits por canal. El efecto bloom basado en FP16 tiene muchísimas veces más calidad visualmente hablando que el bloom de 8 bits.

    Espero que esto sirva para aclarar por qué el realizar antialiasing con HDR es algo que atañe al desarrollador para el caso de las tarjetas nVidia y las ATI no shader 3.0. Como en todos los casos es una decisión entre calidad y efectos._

    Si alguien quiere que le intente explicar algún punto concreto, que lo comente.

    Otro caso de un juego en el que las nVidia pueden aplicar antialiasing con HDR es en el Age of empires 3, pero no utilizan un modo normal, sino que tienen que emular el antialiasing mediante un supersampling por software. Dibujan la imagen con una resolución un 50% mayor en cada eje, y realizan posteriormente un filtro de reducción, por lo que al final tienen que calcular 2'25 veces más píxeles (sería un antialiasing 1'5x1'5, si la imagen final es de 1600x1200, internamente se trabaja a 2400x1800). Esto conlleva una mejora de calidad en los bordes de los polígonos inferior a la que proporciona el 2x, con una carga computacional brutal, que conlleva una pérdida de rendimiento de aproximadamente el 60%, por lo que no es factible este modo por software en la mayoría de los juegos.


Accede para responder
 

Has perdido la conexión. Reconectando a Hardlimit.