¿ Las Nvidia 7800 no pueden hacer antialiasing Y efectos HDR al mismo tiempo ? ATI SI
-
-
Yo estaba pensando en comprar una tarjeta de estas de Nvidia pero creo que ahora que he visto varias reviews y he leido sobre las nuevas gráficas de ATI X1000, no me voy a comprar una Nvidia, me voy a esperar a que lleguen las nuevas de ATI que según parece por lo que he visto son mejores que las de Nvidia.
Y la pregunta que he hecho la respuesta es que SI es verdad que no pueden hacer antialiasing, PERO como habeis dicho depende mucho el juego que sea, la tecnología que use y como la utilice y de esto depende si podrá usar las dos cosas al mismo tiempo o no.
Yo prefiero comprarme una ATI que según parece funciona bien en todos los casos y no hay que estar dependiendo de la tecnología que se use en el juego.
Para una vez que iba a volver a comprarme una Nvidia, con lo que me gustaban antres, ahora no lo voy a hacer.
Supongo que las ATI no tendrán problema con los chipset nforce 4 de Nvidia, y me da igual el SLI porque no lo pienso usar.
-
Finalmente después de poner el último post ya he comprado la tarjeta gráfica después de 4 meses ya que estaba esperando a comprar el ordenador, y he comprado la Radeon x1800XL que está garantizado que es 100% compatible con HDR y AA antialiasing a la vez, y que no hay que elegir uno u otro.
Y he visto en una revista que dice que ahora no es tan importante, pero que muy pronto van a salir juegos a la venta donde esto si que va a ser importante y va a marcar la diferencia entre unas tarjetas y otras, y supongo que por eso Nvidia ya quiere dejar de fabricar las 7800 y empezar a fabricar 7900 que se supone que esta corregido ¿ o no ?
Los juegos incompatibles con Nvidia son Far Cry (nueva versión) y el Splinter Cell: Chaos Theory y se que hay mas pero ahora mismo no me acuerdo de otros juegos que lleven HDR incompatible con Nvidia
Sobre el Far cry –> http://www.extremetech.com/article2/0,1697,1714982,00.asp
Sobre el Splinter Cell: Chaos Theory –-> http://www.extremetech.com/article2/0,1697,1839442,00.asp
Note that with Nvidia's recent cards, HDR is incompatible with full-screen AA, and the game will automatically disable AA in those situations.
En las recientes tarjetas de Nvidia, el HDR es incompatible con el AA a toda pantalla, y el juego automáticamente desactiva el AA en esas situaciones.
En una comparativa con la RAdeon X1900 se dice que
Nvidia is missing scores for 1600x1200 with 4xAA and 8xAF in these tests because its cards are not capable of running HDR along with AA (when the HDR uses floating-point blending, as it usually does).
Nvidia pierde puntos porque no es capaz de funcionar con HDR y AA al mismo tiempo, cuando el HDR usa mezcla de coma-flotante, como usa normalmente.
http://www.smartcompany.com/print_article/ATI+Radeon+X1900+Hardware+Review/169829.aspx
O sea que con las Nvidia se tienen problemas de este tipo y con las ATI no se tiene ninguno de estos problemas y no hay que elegir verlo a peor calidad o perder efectos que no podamos ver.
También puse esta otra rama –-> http://www.hardlimit.com/forum/showthread.php?t=42026
-
Pero créeme, la lista de juegos incompatibles con el HDR de Nvidia va a ser muy pequeña. Más que nada pq Nvidia va a extender su mano pecadora y pondrá billetitos en los bolsillos de mucha gente para no salir perjudicada me equivoco??
Además a 1600x1200 el Antialiasing no es del todo necesario ( para mí si, soy muy pijo con los dientes de sierra ) , entonces es cuando se puede echar mano del HDR.
Ojo, que con esto no quiero decir que Nvidia no la haya cagado, que sí que lo ha hecho, pero espero que sepa aprovechar su dinero para no jodernos a nosotros, los consumidores de sus productos. -
Pero créeme, la lista de juegos incompatibles con el HDR de Nvidia va a ser muy pequeña. Más que nada pq Nvidia va a extender su mano pecadora y pondrá billetitos en los bolsillos de mucha gente para no salir perjudicada me equivoco??
Además a 1600x1200 el Antialiasing no es del todo necesario ( para mí si, soy muy pijo con los dientes de sierra ) , entonces es cuando se puede echar mano del HDR.
Ojo, que con esto no quiero decir que Nvidia no la haya cagado, que sí que lo ha hecho, pero espero que sepa aprovechar su dinero para no jodernos a nosotros, los consumidores de sus productos.A Nvidia le pasa como a Intel, en vez de dedicarse a fabricar bien las gráficas y que sean compatibles, sin fallos, y que tengan un buen resultado, se dedica a "comprar" a los desarrolladores para que lo hagan a su manera e intentar tapar los fallos de sus gráficas con dinero extra para que les "ayuden" a enmascarar los errores o que no usen las técniocas que hacen evidentes que se vean los fallos de sus gráficas, o sino engañan con sus drivers desactivando invisiblemente funciones o cambiando los gráficos o desctivando efectos sin que nos demos cuenta, o hace cualquier cosa con tal de salir adelante.
Por pequeña que sea la cantidad de juegos que vayan a ser incompatibles con Nvidia, yo me quiero sentir limitado a la hora de tener que elegir un juego, y de tener que elegir opciones porque mi flamante nueva y cara tarjeta gráfica es incompatible con ese juego ¿ y si ese juego resulta ser uno de los mejores del año? Solo sería uno , pero sería una pena no poderlo jugarlo bien con todos los efectos tal y como lohan programado los creadores.
Además yo creo que de aqui a 6 meses si que van a salir mas juegos con el HDR completo y no van a ser tan pocos.
Y yo al igual que tú no me gustan absolutamente los dientes de sierra y es muy importante para mi el antialiasing para mejor la calidad de los gráficos y hacer mas realistas ¿ y entonces no voy a poder activar el HDR? ¿ porque me voy a complicar con una gráfica que es incompatible?
Claro que esto también es si te importa la calidad, porque se que hay personas que esto no les importa y que les da lo mismo esto, yo conozco a una que no le importa nada la calidad y le da igual poner el AA y le da lo mismo los mismo los shaders y si se ven mas o menso efectos.
Nvidia no es la primera vez que se equivoca, ya es la cuarta o quinta vez que lo hace mal desde lo de la gráfica aspiradora FX5800
No quiero decir con esto que las gráficas de Nvidia sean malas porque de hecho las nuevas son bastante buenas y dan muy buen resultado y de hecho yo estuve a punto de comprar una 7800 antes, pero en ese momento supe de la salida de las X1000 y entonces me decidí por estas.
-
ya han salido las 7900gt…. estas sí son compatibles con hdr&AA??? Si se pone la cosa tonta la cambio en un plis plas
-
No, son exactamente iguales a las 7800 en cuanto a limitaciones. A igual velocidad rinden exactamente lo mismo. Ha sido una reducción de tamaño para aumentar márgenes y poder reducir precios, además de aumentar la velocidad. No tendrán la tarjeta más avanzada, pero buscan la que ofrezca mayor relación calidad/precio. En esto va a ser complicado para ATI luchar contra las 7900GT y 7600GT, son dos tarjetas con una calidad/precio excelente si se confirman los precios que se supone van a tener.
-
Ya estan en tiendas por 549€.
Entonces lo unicvo que han echo ha sido cambiar la tecnologia de fabricacion. Es lo normal, primero sa cambia la tecnologia de integracion sobre la arquitectura anterior que sabes que funciona bien y despues cambias la arquitectura.
-
Más que nada porque no tienen una arquitectura nueva que ofrecer hasta DX10, por lo que si no tienes más ancho de banda, para qué meter más unidades si no las vas a poder alimentar. Podrían haber metido 32 unidades de texturas y píxeles, pero solo se notaría a medio/largo plazo, y esta tarjeta es una tarjeta para aguantar hasta DX10 y putear a ATI bajándole los márgenes.
-
podría pillarme una 7900gt por unos 335€, vendiendo la mía me saldría por unos 40€… tu que harías kynes?? Merece la pena??
-
Si te vas a quedar con el AS5 si, por lo que tendrías que tener guardado todavía el disipador de fábrica de la 7800GT. Le colocas el AS5 a la 7900GT y a tirar con esa tarjeta, seguro que le podrías hacer un overclock curioso. Si no, tendrías que sumarle el coste de un AS5, ya que el disipador que viene con la tarjeta es ridículo.
-
No, son exactamente iguales a las 7800 en cuanto a limitaciones. A igual velocidad rinden exactamente lo mismo.
En algún sitio he leido que han reducido el número de transistores. Si no me equivoco y mantienen rendimiento algo habran optimizado.
Saludos -
Bueno, han mejorado un poco las ROPs para mejorar la representación de imágenes con backbuffer FP16 (el normal en HDR) por lo que deberían mejorar un poco en este sentido. En cuanto a potencia de shaders y unidades de texturas, no han tocado nada. Probablemente la disminución en el número de transistores es por eliminación de redundancia, cuando fabricas chips juegas con estadística, metes redundancia para aumentar el número de chips válidos por oblea, a costa de reducir el número de chips totales. Si p(x) es la probabilidad de que te salga un chip válido, y n es el número de chips por oblea, n multiplicado por p(x) es el número de chips válidos. El juego consiste en aumentar ese producto, aumentando p(x) mediante redundancia a costa de disminuir n. Jugando con estos parámetros existe un punto máximo que es el que buscan los fabricantes, y nVidia ha estimado que puede aumentar el número total de chips válidos disminuyendo un poco p(x) al eliminar redundancia. Normalmente la probabilidad de error aumenta cuadráticamente con el tamaño, por lo que una reducción de tamaño como es pasar de 110nm a 90nm reduce mucho la probabilidad de fallo, y por eso compensa eliminar redundancia.
Resumiendo, cuanto mayor es el chip, lo normal es meter mayor redundancia porque es mayor la probabilidad de error, y cuanto menor, menos redundancia compensa meter. Con esto es con lo que ha jugado nVidia en este caso para cargarse aproximadamente 15 millones de transistores.
-
Como siempre es un placer leerte.
-
Pues yo me he hecho la picha un lio al releerlo