Nueva comparativa entre ATI y Nvidia de gama media Abril 2004 - Benchmarks con juegos
-
http://www.xbitlabs.com/articles/video/display/mainstream-roundup.html
Acabo de ver esta comparativa del día 24 de Abril 2004 donde se comparan los modelos que hay de tarjetas graficas de gama media de ATI y Nvidia que son realmente los que mas se venden y los que mas interesan al publico normal, o sea los siguientes
ATI RADEON 9600 XT
ATI RADEON 9600 PRO
ATI RADEON 9600
ATI RADEON 9600 SE
ATI RADEON 9200
NVIDIA GeForce FX 5700 Ultra GDD3
NVIDIA GeForce FX 5700 Ultra
NVIDIA GeForce FX 5700
NVIDIA GeForce FX 5700 LE
NVIDIA GeForce FX 5600
NVIDIA GeForce FX 5600 XT
NVIDIA GeForce FX 5200
NVIDIA GeForce4 Ti4200-8xDecir que al igual que lo de los 256 MB, la memoria GDD3 de la 5700 Ultra no sirve realmente para nada al menos en estas pruebas que se han hecho ya que se obtienen los mismos FPS con una memoria que con otra. ¿porque pagar por algo que no afecta al rendimiento?
Y en la actualidad donde no se puede confiar mucho en las webs, la de xbitlab que es la que ha hecho esta comparativa, de momento se puede confiar en lo que digan y no están influenciados ni comprados, en principio, por ninguna de las dos empresas.
Lo mejor de esta comparativa es que no usa ningún benchmark sintético para hacer las mediciones, sólo usa juegos nuevos y los test se hacen en diferentes resoluciones y activando el antialiasing y el anisotropico. Esta es la mejor manera de poder saber el rendimiento de una gráfica.
Se usan estos juegos que son variados y diferentes.
Far Cry Demo
Halo
Tomb Raider: Angel of Darkness
Deus Ex 2: Invisible War
Unreal Tournament 2004 Demo
Max Payne 2: The Fall of Max Payne
Prince of Persia: Sands of Time
Star Wars: Knights of the Old Republic
IL-2 Sturmovik: Aces
Lock On: Modern Air Combat
Command & Conquer Generals: Zero HourEn los juegos en que se usa el Pixel shader 2.0 es donde se nota realmente la diferencia entre las ATI y las Nvidia que se hunden a CASI LA MITAD del rendimiento en muchos casos!!!, como ocurre en el Tomb Raider - Angel of Darkness. Que yo sepa las Nvidia no pueden arreglar esto ya que según creo es un problema de hardware.
http://www.xbitlabs.com/articles/video/display/mainstream-roundup_11.html
En los juegos que se usa OpenGL , es donde Nvidia puede ganar gracias a los drivers que lo soportan mejor, como se puede ver en el juego Star Wars: Knights of the Old Republic. Ya veremos a ver cuando ATI ofrece mejor soporte y rendimiento en OpenGL, tal vez no se preocupan mucho porque no hay muchos juegos que usen OpenGL
http://www.xbitlabs.com/articles/video/display/mainstream-roundup_16.html
–---------------------------
Lo que no se hace en esta comparativa es comparar la calidad grafica de las tarjetas para ver si Nvidia hace trampas y camufla o usa ciertos trucos para modificar algo la calidad de los graficos y asi influir y obtener mejor rendimiento
-
SpaceRay dijo:
Decir que al igual que lo de los 256 MB, la memoria GDD3 de la 5700 Ultra no sirve realmente para nada al menos en estas pruebas que se han hecho ya que se obtienen los mismos FPS con una memoria que con otra. ¿porque pagar por algo que no afecta al rendimiento?
Hoy en día, la única utilidad de la memoria gddr3 es bajar la factura de la luz, y algunas décimas de grado de la temperatura de la caja.
SpaceRay dijo:
Y en la actualidad donde no se puede confiar mucho en las webs, la de xbitlab que es la que ha hecho esta comparativa, de momento se puede confiar en lo que digan y no están influenciados ni comprados, en principio, por ninguna de las dos empresas.
Para mi gusto, la mejor junto a beyond3d, pero esta última no realiza round ups como este comparando tarjetas de diferentes fabricantes…
SpaceRay dijo:
En los juegos en que se usa el Pixel shader 2.0 es donde se nota realmente la diferencia entre las ATI y las Nvidia que se hunden a CASI LA MITAD del rendimiento en muchos casos!!!, como ocurre en el Tomb Raider - Angel of Darkness. Que yo sepa las Nvidia no pueden arreglar esto ya que según creo es un problema de hardware.
Es un problema de hardware, la serie nv3x de nVidia tiene un defecto en la poca potencia de sus unidades de shaders 2.0, y tienen que recurrir a "optimizaciones" tipo FarCry para no hundirse en las comparativas con las de ATI. El defecto es de diseño, no quisieron ceñirse al estándar que propuso microsoft, y así les salió. ATI en cambio colaboró con los de Redmond para el desarrollo del estándar.
SpaceRay dijo:
En los juegos que se usa OpenGL , es donde Nvidia puede ganar gracias a los drivers que lo soportan mejor, como se puede ver en el juego Star Wars: Knights of the Old Republic. Ya veremos a ver cuando ATI ofrece mejor soporte y rendimiento en OpenGL, tal vez no se preocupan mucho porque no hay muchos juegos que usen OpenGL
Es cierto la debilidad de ATI en OpenGL. Incluso en algunas revisiones de los catalyst han "roto" el soporte de algunos juegos como el RTCW: Enemy Territory (Catalyst 4.1 si no recuerdo mal) y han tenido que resolver la pifia en revisiones posteriores… En Nordic Hardware www.nordichardware.com/interview/2004/ATi_Catalyst/ realizaron una entrevista al jefe de desarrollo de los Catalyst, Terry Makedon (conocido en los foros de rage3d y beyond3d como Catalyst Maker) en las que auguraba sorpresas en las revisiones próximas de los drivers… Debido a la proximidad del Doom3, y a la cacareada ventaja de las nVidia en OpenGL, no me extrañaría que estas sorpresas estén relacionadas con la mejora del soporte para esta api de diseño de juegos (de ilusión también se vive, ¿no?) Saludos