Otra vuelta de rosca con la 6600gt agp
-
Rinde un 10% 20% más rápido que la misma tarjeta (en este caso la 6600GT) con ps2.0, no que la 9800pro, y no en todas las circunstancias, solo en casos muy concretos. Lo que no se yo es si estaremos como en el caso de la 5200 (no quiero comparar rendimiento de las tarjetas) lo que quiero decir es si la 6600GT tendrá potencia suficiente para mover bien los efectos en ps3.0… recordemos que no mueve bien las demos de nVidia (la de la sirena, p.ej) y que la 6800 ultra conseguía solo 15 fps de media en el motor unreal 3.0 a una resolución de 640x480... Todavía es pronto para saberlo, pero quizás nos encontramos con una funcionalidad no utilizada por falta de potencia.
De todos modos creo que es mejor tarjeta que la 9800pro, pero yo no me la compraría por el ps3.0, para cuando salgan los juegos que realmente lo utilicen, la 6600GT será como la 5700 o la 9550 hoy en día, gama media-baja, en el mejor de los casos. -
Pues eso si mueve el pixelshader3.0 como la 5200 el dx9.0mas vale ir buscando otra tarjeta para los juegos que se basen en el. Y al fin y al cabo que tampoco hara muchas cosas que la 9800pro no pueda hacer aunque sea al mas potente, y tampoco en todo segun tengo entendido.
-
Yo, para mi personalmente, las dos son grandes tarjetas, y creo que hasta hay estamos de acuerdo no??
La 9800 ya es bastante conocida y esta muy experimentada, pero la 6600 ha salido hace nada y creo que lo bien que rinde, con optimizaciones de driver sera mas excelente todavia.
Pero…sigo diciendo lo mismo, estamos comparando una grafica gama media con una grafica gama alta, y de generaciones Distintas.
Dejemos de especular el que movera o el que no movera la GT, x ahora creo que va sobrada, pero la 9800 tmb tiene fuelle pa rato.
He leido x hay que el ps3.0 no sera usado hasta dentro de algo de tiempo...al menos eso dicen los de ATI, a si que tampoco vamos a pillar la GT x esa funcionalidad, si no x una serie de caracteristicas en conjunto, y x que nos convence el precio en relacion con lo que rinde.
Supongo que muchos les parece imposible que rinda mas una 6600gt que la PRO (y vale que tampoco es mucha diferencia), x ser de la categoria que es...pero hasta rinde mas que la
6800LE y tmb esa es de gama superior.
Pero si quereis una ATI que rinda mas que la GT... tenies la X800pro, y no se que tal sera la X700pro.... -
A ver, es una gran tarjeta. Lo que pasa es que no la recomendaría por su futuro, sino por su presente.
-
de todas maneras, yo no me fio de demos-benchmark, cuando es bien sabido q tanto ati como nVidia optimizan sus driver solo para tales pruebas, a mi lo que me vale es el rendimiento en juegos…de todas maneras habra q esperar un poquino a ver q saca la competencia no?
-
Hay la has clavado, el movimiento se demuestra andando y los bechmarcks son mas bien orientativos yo por lo menos prefiero no darles mas importancia de la que merecen. Ademas las puntuaciones tambien varian mucho segun el equipo en el que este montada la grafica.
-
Haber, creo que si esta tarjeta va bien en dx9.0b osea pixel shader 2.0, como mucho funcionará igual en ps3.0 o mejor, nunca peor. Por lo que tengo entendido el pixel shader 3.0 hace exactamente los mismos efectos que el 2.0 lo único que los consigue con menos instrucciones para un mismo efecto. El ps3.0 es una optimización del 2.0.
Por tanto si una 6600 puede mover bien el dx9.0b también lo hará con el 9.0c.
Kynes, tu que dominas dime si es asi o no…
Un saludo! -
No estoy del todo segurom pero creo que Shader 3.0 lo que ofrece es el "per Pixel Lighting" que básicamente optimiza el Shader 2/2b reduciendo el número de pases de rendering para un pixel en cierta situación según como le afecten las fuentes de luz, luego las intrucciones del path Shader 3.0 auementan en un 10% los FPS en juegos como el Far Cry cuando se usa.
Por otra parte cosas como "Normal map compression" and "High Dynamic Rate Rendering" son soportadas por la 6600/6600 GT mientras que, en su sector de precio, la 9800Pro no soporta…. -
A ver, es una gran tarjeta. Lo que pasa es que no la recomendaría por su futuro, sino por su presente.
Si seño, toy contigo…miremos la tarjeta x su presente...x q si pensamos que sera en su futuro....hasta una X800pro/xt dentro de 5 años sera lo mas lento del mercado...
Ya veremos con el tiempo lo que segiremos opinando de la 6600GT, pero no creo que sean criticas malas, salvo que no bajen de precio :risitas:
Pero x 200 euros, o menos(cuando bajen, jeje) te la puedes pillar, eso no es tirar el dinero. Tirar el dinero seria pillarte una fx5200(64bits) y que te soplen
81 euros...y lo digo x experiencia,...jejej, me rio x no llorar.
Si gastas 350 euros x esa grafica si que podrias decir que tiras el dinero, sobretodo comparando con otos productos en el mercado y sus precios/prestaciones. -
Un par de cosas. No he dicho que vaya a mover el shader model 3.0 como la 5200 mueve el 2.0, sino que no sabemos realmente como lo va a hacer. Si quereis ver una tabla comparando los dos modelos, en la página de Microsoft http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx podeis verlo. Tened en cuenta que está escrito por una persona de nVidia, pero creo que en lo que nos debemos fijar es en los datos y no en las conclusiones. Ah, una cosa, la comparación es con el estándar 2.0, no con las implementaciones de ATI en la gama 9 o la gama X, que incluyen variaciones. La gama X (las X700 y las X800) tienen el límite de instrucciones por shader en 1536, muy por encima de los 96.
Hay un error que mucha gente comete, y es pensar que por estar un shader programado en un modelo superior, va a funcionar más rápido. Si esto fuese así, el Far Cry se hubiera programado casi todo en 2.0, y no solo algunos efectos de luz (la linterna, creo) El modelo 2.0 pide requisitos mínimos mucho mayores, entre otras cosas la precisión de 24 bits mínima, lo que reduce el rendimiento en las FX y en la gama 6 de nVidia, ya que les obliga a trabajar con 32 bits de precisión en vez de los 16. Esta precisión mayor es necesaria para evitar que los errores acumulados al aumentar el número de operaciones produzca fallos visibles.
Creo que la principal ventaja del ps3.0 es la longitud de los shaders, ya que en algunos casos concretos con 96 instrucciones se está un poco limitado (en el 3DMark05 la pared de roca del cañón en el 3er test, el del dragón, creo que tiene aplicado un shader de 96 instrucciones de longitud, el máximo soportado por 2.0) El dinamic branching tiene ventajas a la hora de programar, no a la hora de ejecutar (en la gama 6 tiene una penalización equivalente a ejecutar 9 instrucciones, y como la mayoría de los shaders no llegan a esa longitud, perjudica un poco en el rendimiento)
En el caso de vs3.0 es el displacement mapping. Esta característica estaba disponible en la parhelia, pero ahora es necesaria para ser compatible con sm3. Consiste en utilizar mapas normales en modelos de bajo número de polígonos para, mediante interpolación, generar modelos de alto número de polígonos. La diferencia a utilizar mapas normales sin la texelación es que éstos siguen teniendo un número bajo de polígonos, produciendo situaciones raras. En el Doom3, por poner un ejemplo, se ve que las cabezas son casi cuadradas, pero mediante la texelación se obtendrían cabezas más redondeadas, acorde al mapa normal. El trueform de ATI realizaba una texelación, pero no basado en mapas normales sino en una estimación que realizaba mediante un algoritmo, que algunas veces producía efectos raros.
El per-pixel lightning es posible desde las GeForce3. Es simplemente iluminar cada pixel de forma diferente aplicando un shader. Como se puede observar en http://personal.telefonica.terra.es/web/codegarrofi/perPixelLighting/perPixelLighting.htm en el caso concreto de un phong shader (uno de los más utilizados a la hora de aplicar juegos de luz) se redujo de dos pasadas a una al pasar de ps1.1 a ps1.4 y ps2.0, debido a los mayores recursos exigidos a las tarjetas compatibles con estos modelos.
Respecto a la compresión de mapas normales, ésta es posible con cualquier tarjeta compatible con DX9.0 (creo que se puede desde DX8.0, pero no estoy seguro de ello) Las gama de ATI 9xxx DX9 la puede realizar mediante el uso de la compresión DTX5, usada en la demo de Humus http://www.humus.ca/index.php?page=3D&ID=49 así como las tarjetas de nVidia desde la 5200 en adelante.
El HDR (High dynamic range) soportado por nVidia en su gama 6 es el openEXR, http://www.openexr.net/ diseñado por Industrial Light & Magic y basado en utilizar 16 bits fp (uno para signo, 5 para exponente y 10 para mantisa) para representar el valor cromático, con lo que se tiene un rango de 6.1410-5 a 6.41104. Esta implementación se diseñó para efectos especiales y películas de animación (pixar utiliza una variante de este modelo en sus películas) pero tiene algunos problemas para el uso en juegos. Su utilización implica la desactivación del AA, debido a la no ortogonalidad de la implementación de openEXR. Además tiene unos requisitos de potencia elevadísimos, mayores que aplicar 4xAA en el caso del Far Cry. ATI soporta otro modo de HDR desde las tarjetas DX9.0, lo que pasa es que no ha sido utilizado en ningún juego hasta ahora. Se puede leer el artículo de XBitLabs sobre la implementación en el Far Cry en http://www.xbitlabs.com/articles/video/display/farcry13_3.html
El aumento de rendimiento en el Far Cry es debido a que algunos shaders de iluminación se ejecutan en menos pasadas, ya que permite 4 puntos de luz por pasada en vez de los 2 de sm2.0 y los 3 de sm2.0B (el de las X700 y X800)
-
mu pofesional…..