¿ Las Nvidia 7800 no pueden hacer antialiasing Y efectos HDR al mismo tiempo ? ATI SI
-
a) Si, es verdad en parte. La implementación de HDR basada en OpenEXR (FP16) no permite la aplicación de AA en la gama 7800. Otras implementaciones de HDR que no utilizan FP16 (como la que usa Valve en el nivel Lost Coast) no tienen esta limitación, además de que permite los efectos HDR en todas las tarjetas DX9 (ATI desde el R300 y nVidia desde las FX) lo que pasa es que es muchísimo más fácil utilizar FP16 que usar I16 y ampliar el rango en los shaders (operaciones que tienen tendencia a producir lo que se conoce como banding)
Humus, el programador que descubrió el parche para Doom3 para mejorar el rendimiento en tarjetas ATI, ha estado trabajando para investigar la forma de mejorar la calidad visual del HDR en I16, como se puede observar en éste hilo de Beyond3D
b) No tiene nada que ver con la potencia, tiene que ver con el diseño de las unidades de texturas. Al diseñarlas, no se realizó una implementación ortogonal de FP16 y de AA, por lo que se debe elegir una cosa o la otra.
c) No es realmente un fallo de hardware, es simplemente que hay cosas que cuestan transistores y eliges que incluyes en un chip y que no.
d) No, solo se puede arreglar mediante implementaciones que no utilicen FP16, o mediante la utilización de alguna implementación en los shaders, lo que sería muy costoso a nivel computacional y degradaría muchísimo el rendimiento.
Sobre lo de las tarjetas de ATI, se supone que si va a tener una implementación ortogonal del FP16 y del AA, eso es lo que se rumorea. Sobre lo de que no va a perder rendimiento… hombre, yo no me lo creeré hasta que no lo vea. Es bastante probable que tenga menos rendimiento que aplicar solo el HDR, porque ambos efectos tiran mucho de ancho de banda de memoria. Si yo fuera tu esperaría hasta el 5 de octubre, que es cuando podremos salir de dudas.
-
Y a que se deberá esta "incompatibilidad"? El HDR es el nuevo estandar que utiliza nVidia desde su seria 6 en la que utiliza numeros en punto flotanteen en lugar de los tradicionales numeros enteros ( 8 bits para el color rojo, 8 para el verde, 8 para el azul y 8 para el canal alfa) para representar el color y la luz; consiguiendo asi una mayor semejanza de como el ojo humano interpreta el color.
Sinceramente no entiendo que tiene que ver una cosa con la otraUna pregunta que no viiene al caso, la seria 6 de nVidia fue desarrollada para PCI-E o para AGP?? Que yo sepa lo fue para el PCI-E, por eso que los modelos como la 6600GT AGP tengan el chip conversor no??? Es que estoy teniendo una pequeña disputa con un profesor sobre este tema :rolleyes:
-
Pues es debido a que cuando tu diseñas una tarjeta, en las unidades de texturas implementas los diferentes tipos de formas de almacenar los datos, y lo que puedes hacer con ellas. Las X800 no permiten FP16, por lo que no pueden utilizar el HDR que se implementa en el FarCry, que lo exige. Las 6800 y 7800 si, y no tiene nada que ver con el SM3.0, pero no permite el filtrado, por lo que no puedes tener AA. Las X1xxx en teoría si van a implementar FP16 con filtrado, por lo que se debería poder utilizar éste modo de HDR.
No hay que confundir una implementación de HDR (la basada en OpenEXR, que no es más que una forma de guardar los datos) con el HDR en sí mismo, ya que hay formas de implementarlo sin SM3.0, sin FP16 y con AA en tarjetas como las 9700, como en el caso del Day of defeat Source. Es una asociación mental que mucha gente hace gracias al márketing de nVidia, pero no es una relación directa de necesidad.
Sobre lo de la gama 6 de nVidia, depende del chip. El NV40, el que se utiliza en las 6800LE, 6800, 6800GT y 6800Ultra AGP, es AGP nativo. El NV41 (130nm) y el NV42 (110nm), los que se usan para la 6800 en PCI-express, son nativos PCI-express. El NV43, el usado en las 6600, 6600GT y algunas 6200 (las primeras y que tenían 4 pipes enmascaradas) y el NV44, usado en las 6200 que solo tenía 4 pipelines, son PCI-express, por lo que para usarlas en AGP necesitan el chip conversor. El NV44a, que nVidia sacó para cubrir el hueco en AGP, tiene cuatro pipes, se usa en las 6200 AGP y es nativo. Y el NV45, el de las 6800GT y 6800Ultra en PCI-express, es un NV40 con el chip conversor en el mismo empaquetado, en vez de tenerlo al lado de la ranura, por lo que realmente es AGP nativo.
-
Pero la forma de alamcenar los datos es propia de la arquitectura de la GPU y que yo sepa todas las etapas de cauce trabajan sobre los mismos datos. Al inicio del cauce trabaja sobre vertices que posteriormete pasaran a ser pixeles sobre los que aplicara las texturas, pero la representacion interna de los datos es la misma en todas las etapas.
El antialiasing es una mas de las etapas de las 16 que tiene una GPU (nVidia en el caso que yo comento) al igual que la de Vertex shader, clipping, culling, etc… Lo que no me queda muy claro es que SOLO la etapa de antialiasing sea incapaz de procesar datos en punto flotante de 16 bits.
-
Sergiman, el problema es que no es exactamente como lo comentas. Cuando los datos se van procesando, se realizan conversiones de formato. No es un problema de precisión interna, ni nada por el estilo, es simplemente que el AA solo se puede realizar en la gama 7 cuando el frame buffer tiene componentes enteras, no en punto flotante (y todo el truco del HDR basado en FP16 es que utiliza un frame buffer en punto flotante)
En una descripción de la arquitectura de las 7800 que realiza Digit Life se comentan dos cosas: "Frame buffer — INT8, FP16 (without MSAA), FP32 (without blending and MSAA)" y "MSAA — INT8[4], not supported for floating point component formats." Si quieres este método de HDR tienes que renunciar al AA porque el AA necesita INT8 en el frame buffer, y el HDR FP16. Se supone que la gracia de la gama X1 de ATI es, entre otras cosas, que el AA no requiere INT8 en el FB.
-
En ese caso si que puede ser, si los datos no tienen la misma representacion si puede ser. Cuando la etapa de antialiasing coje los datos del frame buffer (los pixels) para posteriormente "limar los dientes de sierra", es necesaria una conversion de formato?? En ese caso hay una perdida de calidad al emplear numeros enteros de 8 bits no???
Ya me queda todo mas claro, pero ahora que lo pienso; todo lo bueno que aporta el formato de 16 bits en punto flotante lo echa por tierra el antialiasing??? -
Si quisieras aplicar AA, tendrías que pasar de nuevo a LDR (INT8) por lo que te quedarías en un simple efecto bloom. Si, no te serviría de mucho haber trabajado en HDR si después exiges una conversión a INT8, que probablemente produciría banding y sobreexposición. De todas maneras todo esto es mucho más complejo, ya que ningún monitor es realmente HDR, debido a que siguen trabajando con valores enteros para representar el color. PD: perdona si no me explico bien. Hoy estoy un poco espeso…
-
Es una tecnologia que actualmente no se puede aplicar, pero dentro de no mucho apareceran dispositivos que si que aprobecharan esta caracteristica y por lo que dicen el cambio que notaran los usuarios sera bastante considerable.
-
La verdad es que es una pena el hecho de que el AA y el HDR con FP16 sean mutuamente excluyentes en las gamas 6 y 7 de nVidia, ya que el HDR es espectacular cuando se implementa bien, como en la demo Real-Time High Dynamic Range Image-Based Lighting (que si permite AA) pero yo no renunciaría al AA por el HDR.
-
Esta claro que no, ya que el HDR no se puede utilizar en los dispositivos actuales y la capacidad de procesamiento que tiene las graficas mas modernas se merecen una imagenes de igual calidad, y esta claro que el antialiasing es muy necesario. Seria una pena generar una buena escena grafica (tanto en complegidad computacional como en aplicacion de texturas) y estropearlo todo por esos odiosos "dientes de sierra"
-
Yo en el Day of Defeat Source (k usa HDR) pongo el Antialising a 4x y el HDR y me funciona bien, lo se pk:
1º - No ay dientes de sierra
2º - Los efectos del HDR son obvios si los ves.(tmb pongo el anisotropic a 16x)
-
a) Si, es verdad en parte. La implementación de HDR basada en OpenEXR (FP16) no permite la aplicación de AA en la gama 7800. Otras implementaciones de HDR que no utilizan FP16 (como la que usa Valve en el nivel Lost Coast) no tienen esta limitación, además de que permite los efectos HDR en todas las tarjetas DX9 (ATI desde el R300 y nVidia desde las FX) lo que pasa es que es muchísimo más fácil utilizar FP16 que usar I16 y ampliar el rango en los shaders (operaciones que tienen tendencia a producir lo que se conoce como banding)
El day of defeat source utiliza un método basado en la expansión del rango dinámico y la posterior compresión mediante shaders. Utiliza un render target int8 (no int16 como puse anteriormente) que si permite AA.
-
Acabo de probar la demo esa de las bolas Kynes y reamente impresiona… a 1280x1024 con el aniso a 16X y FSAA 8X (a mas FSAA me dice que no tengo suficiente memoria de video) a penas llega a los 30 FPS, pero es que da gusto dejar que rote solo y ver los cambios de luz....
En esta captura no se apreciará, además a perdido calidad al pasarla a JPG:
-
Es que esta demo es para verla. Además fue de los primeros benchs que avisaban del fiasco de las FX… De todos modos, no es solo de las canicas, tienes otros modelos para probar como una calavera o una tetera, y diferentes materiales desde oro, aluminio, porcelana o cristal. También es un test muy bueno para llevar la tarjeta al límite y probar si el overclock es estable.
-
ese programa dnd se puede encontrar?
saludos!
-
-
Yo estaba pensando en comprar una tarjeta de estas de Nvidia pero creo que ahora que he visto varias reviews y he leido sobre las nuevas gráficas de ATI X1000, no me voy a comprar una Nvidia, me voy a esperar a que lleguen las nuevas de ATI que según parece por lo que he visto son mejores que las de Nvidia.
Y la pregunta que he hecho la respuesta es que SI es verdad que no pueden hacer antialiasing, PERO como habeis dicho depende mucho el juego que sea, la tecnología que use y como la utilice y de esto depende si podrá usar las dos cosas al mismo tiempo o no.
Yo prefiero comprarme una ATI que según parece funciona bien en todos los casos y no hay que estar dependiendo de la tecnología que se use en el juego.
Para una vez que iba a volver a comprarme una Nvidia, con lo que me gustaban antres, ahora no lo voy a hacer.
Supongo que las ATI no tendrán problema con los chipset nforce 4 de Nvidia, y me da igual el SLI porque no lo pienso usar.
-
Finalmente después de poner el último post ya he comprado la tarjeta gráfica después de 4 meses ya que estaba esperando a comprar el ordenador, y he comprado la Radeon x1800XL que está garantizado que es 100% compatible con HDR y AA antialiasing a la vez, y que no hay que elegir uno u otro.
Y he visto en una revista que dice que ahora no es tan importante, pero que muy pronto van a salir juegos a la venta donde esto si que va a ser importante y va a marcar la diferencia entre unas tarjetas y otras, y supongo que por eso Nvidia ya quiere dejar de fabricar las 7800 y empezar a fabricar 7900 que se supone que esta corregido ¿ o no ?
Los juegos incompatibles con Nvidia son Far Cry (nueva versión) y el Splinter Cell: Chaos Theory y se que hay mas pero ahora mismo no me acuerdo de otros juegos que lleven HDR incompatible con Nvidia
Sobre el Far cry –> http://www.extremetech.com/article2/0,1697,1714982,00.asp
Sobre el Splinter Cell: Chaos Theory –-> http://www.extremetech.com/article2/0,1697,1839442,00.asp
Note that with Nvidia's recent cards, HDR is incompatible with full-screen AA, and the game will automatically disable AA in those situations.
En las recientes tarjetas de Nvidia, el HDR es incompatible con el AA a toda pantalla, y el juego automáticamente desactiva el AA en esas situaciones.
En una comparativa con la RAdeon X1900 se dice que
Nvidia is missing scores for 1600x1200 with 4xAA and 8xAF in these tests because its cards are not capable of running HDR along with AA (when the HDR uses floating-point blending, as it usually does).
Nvidia pierde puntos porque no es capaz de funcionar con HDR y AA al mismo tiempo, cuando el HDR usa mezcla de coma-flotante, como usa normalmente.
http://www.smartcompany.com/print_article/ATI+Radeon+X1900+Hardware+Review/169829.aspx
O sea que con las Nvidia se tienen problemas de este tipo y con las ATI no se tiene ninguno de estos problemas y no hay que elegir verlo a peor calidad o perder efectos que no podamos ver.
También puse esta otra rama –-> http://www.hardlimit.com/forum/showthread.php?t=42026
-
Pero créeme, la lista de juegos incompatibles con el HDR de Nvidia va a ser muy pequeña. Más que nada pq Nvidia va a extender su mano pecadora y pondrá billetitos en los bolsillos de mucha gente para no salir perjudicada me equivoco??
Además a 1600x1200 el Antialiasing no es del todo necesario ( para mí si, soy muy pijo con los dientes de sierra ) , entonces es cuando se puede echar mano del HDR.
Ojo, que con esto no quiero decir que Nvidia no la haya cagado, que sí que lo ha hecho, pero espero que sepa aprovechar su dinero para no jodernos a nosotros, los consumidores de sus productos. -
Pero créeme, la lista de juegos incompatibles con el HDR de Nvidia va a ser muy pequeña. Más que nada pq Nvidia va a extender su mano pecadora y pondrá billetitos en los bolsillos de mucha gente para no salir perjudicada me equivoco??
Además a 1600x1200 el Antialiasing no es del todo necesario ( para mí si, soy muy pijo con los dientes de sierra ) , entonces es cuando se puede echar mano del HDR.
Ojo, que con esto no quiero decir que Nvidia no la haya cagado, que sí que lo ha hecho, pero espero que sepa aprovechar su dinero para no jodernos a nosotros, los consumidores de sus productos.A Nvidia le pasa como a Intel, en vez de dedicarse a fabricar bien las gráficas y que sean compatibles, sin fallos, y que tengan un buen resultado, se dedica a "comprar" a los desarrolladores para que lo hagan a su manera e intentar tapar los fallos de sus gráficas con dinero extra para que les "ayuden" a enmascarar los errores o que no usen las técniocas que hacen evidentes que se vean los fallos de sus gráficas, o sino engañan con sus drivers desactivando invisiblemente funciones o cambiando los gráficos o desctivando efectos sin que nos demos cuenta, o hace cualquier cosa con tal de salir adelante.
Por pequeña que sea la cantidad de juegos que vayan a ser incompatibles con Nvidia, yo me quiero sentir limitado a la hora de tener que elegir un juego, y de tener que elegir opciones porque mi flamante nueva y cara tarjeta gráfica es incompatible con ese juego ¿ y si ese juego resulta ser uno de los mejores del año? Solo sería uno , pero sería una pena no poderlo jugarlo bien con todos los efectos tal y como lohan programado los creadores.
Además yo creo que de aqui a 6 meses si que van a salir mas juegos con el HDR completo y no van a ser tan pocos.
Y yo al igual que tú no me gustan absolutamente los dientes de sierra y es muy importante para mi el antialiasing para mejor la calidad de los gráficos y hacer mas realistas ¿ y entonces no voy a poder activar el HDR? ¿ porque me voy a complicar con una gráfica que es incompatible?
Claro que esto también es si te importa la calidad, porque se que hay personas que esto no les importa y que les da lo mismo esto, yo conozco a una que no le importa nada la calidad y le da igual poner el AA y le da lo mismo los mismo los shaders y si se ven mas o menso efectos.
Nvidia no es la primera vez que se equivoca, ya es la cuarta o quinta vez que lo hace mal desde lo de la gráfica aspiradora FX5800
No quiero decir con esto que las gráficas de Nvidia sean malas porque de hecho las nuevas son bastante buenas y dan muy buen resultado y de hecho yo estuve a punto de comprar una 7800 antes, pero en ese momento supe de la salida de las X1000 y entonces me decidí por estas.