NO compreis una tarjeta gráfica que no sea compatible con Direct X 9 sin leer esto
-
s que me he quedado muy asombrado con la gran calidad de los efectos que se consiguen con estos direct x 9 y los pixel shaders 2.0 al ver las fotos y videos con tanto detalle y tan realistas de los nuevos juegos y que es increible el avance que han dado, y es una pena que se compre una tarjeta Direct X 8, pudiendo por un poco más tener una que sea Direct X 9 y que pueda mover esos pixels. Ya que la FX 5200 o 9200 va bien para los juegos y los pueden mover sin problemas (al menos los que yo he probado van bien) pero eso va a cambiar con los nuevos juegos y se verá más claramente en 25 días cuando ya tengamos los nuevos benchmark y juegos para Direct X 9 (Half life 2, Aquanox 2 y Aquamark 3)
Spaceray, me sorprende que con lo informado que estas todavia no sepas que los efectos no dependen ni de los shaders ni de la grafica ni de nada. Puedes conseguir los mismos efectos visuales programando en C sobre una Virge de 4Mb.
Las demos de los Dx8.1 tambien eran y son impresionantes y no hay juegos Dx8.
El problema de fondo es que el programador aproveche el potencial. El mejor jeugo graficamente de su epoca fue el Queke, QuekeII y QuekeIII y eran OGL, no usaban ni shaders ni gaitas. La calidad de la tarjeta esta en que el programador sepa aprovecharla, el tema de los shaders lo unico que hace es facilitar algunas cosas pero lo msimo lo puedes hacer sin eso.
Hl2 es muy mal ejemplo, primero porque no es Dx9 y segundo porque los extras Dx9 que tiene hacen que el rendimeinto de una 5900 se ponga al nivel de una 9600 asi que calcula lo que puede pasar con una 5200. Volvemos a lo mismo, no solo es necesaria la capacidad de hacer algo si no tambien la fuerza para hacerlo.
-
SpaceRay: en eso tienes razon, los efectos graficos del dx9 van a ser una pasada… y si es una pena que muchos no los vallan a poder tener en el monitor.
Auque yo que hasta hace pocos meses tenia una voodoo 3 16mb ya os podeis imaginar que concepto tengo de gastar € en una targeta.
Y por ello aprecio muchisimo los juegos que no cargan al pc demasiado ni a la targeta, pero si quieres calidad tambien la puedes conseguir.Que les den a todos los creadores de los superjuegos que hacen que para jugar a la ultima version del tetris tengamos que cambiar de targeta y hasta de pc :rabieta:.
-
SpaceRay, parece buen tio, al menos no te has ido por las nuves al respondermey eso que daba motivos.
mi experiancia es que he tenido una GF 2 MX, PCI (con la cual aprendi el arte de la paciencia xD) tenia los juegos, todo rulaba mal, hasta que me pille una placa base nueva (8KHA+) con un micro nuevo (1700+) y 256 DDR, pero seguia con la misma grafica. estuve tentado a pillarme una GF 4 MX 440 (falta de pelas) que gracias a eso no la pille. meida año mas tarde aparece la GF 4 TI 4200 de 64-128, tenia 220€ y los gaste en una Abit GF 4 TI 4200 de 64. fue lo mejor, poder ver entero el 3Dmark, el codecreatures, todo, todos los efectos de todos los juegos. ahora, 2 años mas tarde sigue dando guerra. pero se le acaba.
la 5600 o la 9600 seguira dando guerra dentro de 2 o 3 años como lo hace la GF 4 TI ahora??
yo prefiero esperar y coger algo que valga la pena y no coger la que de menos problemas.
si con D 8 se mueven a 30 Fps con el D9 se moveran a 10Fps.
PD: la mula tambien te hace aprender "la paciencia" xDDDD
-
Como bien decis comprando una 5200 no se puede pensar en lo k saldra mañana.Cuando salga otra y no funciones pues se compra otra.Tu compras la grafica que te hace falta en el momento.Es mejor gastarse 120€ ahora y no 300 o 400, pensando en los juegos que ban a salir.Cuando salgan esos juegos las tarjetas que ahora cuestan 300 o 400 valdran los 120.
Como he dicho me funciona ese test de directx9 en una gforce 4.Los que tengan una gforce 4 que lo prueben.
Una pregunta.
Como funciona eso de los directx y el hardware?.Me explico.Yo tenia los directx8 y ahora tengo los 9.Si los juegos los programas en directx, se veran todos los efectos en la tarjeta.El rendimiento en el quake es el mismo. -
Para empezar el Quake es OGL y no se ve afectado por las Dx.
Por lo demas las Dx son un conjunto de bibliotecas que implementan una serie de funciones para jugar. Si Dx detecta que tienes una tarjeta compatible con su version acelerara estas funciones atraves del hardware, si no las tiene las emulara por software, asi puedes ejecutar Dx9 sobre una grafica Dx8 solo acelerando lo que tenga la tarjeta. Esto sera asi hasta que una funcion requiera necesariamente el hardware de tu tarjeta como es el caso de los shaders 2.0
-
"Esto sera asi hasta que una funcion requiera necesariamente el hardware de tu tarjeta como es el caso de los shaders 2.0."
No entiendo eso.Que pasa en el caso de los shaders 2.0?
-
supongo que se refiere a que o se hacen por hardware o no se hacen
-
"Esto sera asi hasta que una funcion requiera necesariamente el hardware de tu tarjeta como es el caso de los shaders 2.0."
Ese es el motivo principal de esta rama :sisi:
Muchos (unos 12) de los juegos nuevos que van a salir de aqui a navidad llevan muchos efectos, texturas y sombras creadas con los pixel shaders 2.0, y entonces si tú tarjeta gráfica no tiene esta capacidad por hardware, pues simplemente que NO los vas a ver y serán eliminados del juego.
Según he podido ver los juegos van a traer varia configuraciones y se activarán más o menos detalles y efectos dependiendo de la tarjeta gráfica que tengas
Por ejemplo en el Tomb Raider : Angel of Darkness , cuando llueve se moja el suelo y se producen reflejos por la lluvia y las luces de las lamparas iluminan mejor , y Lara produce buenas sombras por donde pasa, y según tengo entendido (corregidme si no es verdad) todo esto se hace gracias a los pixels shader 2.0 y si no los tienes pues no lo podrás ver.
Yo tengo ahora una FX 5200 y va estupendamente y se ven muy bien todos los efectos en varios juegos y tengo que decir que los juegos que he puesto aún con antialias AA 4x activado, filtro anisotropico 8x activado y con todos los detalles al máximo VAN FLUIDOS. !!!! Por lo que realmente esta tarjeta NO es mala. Es una Winfast 340 y NO es la versión ultra.
-
y sobre que FPS se mueve?? a que resolucion ??? todo al maximo???
-
Es muy diferente jugar a un juego con la sincronizacion y demas desactivadas para que de unos buenos fps a no poder jugar :nono: por culpa de que no es compatible con dx9.
Y a estas alturas que el dx9 ya esta en la mayoria de pcs, es normal que los juegos vengan only for dx9.
-
Algunos los he puesto a 800x600 y otros a 1024x768
Yo pensaba que el activar el Antialias y el anisotropico en una FX 5200 era una tontería poruqe iría muy lento pero mi sorpresa fue que funcionaban bien y fluido y era jugable y se ve bastante mejor con estos filtros activados.
He puesto el Tomb raider nuevo, Tron 2.0, The great escape, Pure pinball, y otros
Los FPS no lo se porque no lo he medido pero tieme que ser superior a 25-30 porque no da ningún tirón.
Yo creo que también influye bastante el hecho del equipo que sea porque no es lo mismo poner una FX 5200 en un AMD 900 MHz con 128 MB RAM PC100 que ponerla en un AMD XP 3000 con 1024 MB de RAM DDR 333
mirad mi equipo de la firma
y hay que tener en cuenta que el direct x 9 NO es nuevo lleva ya tiempo, y ya hay muchisma gente que tiene gráficas compatibles Direct X 9
-
"Esto sera asi hasta que una funcion requiera necesariamente el hardware de tu tarjeta como es el caso de los shaders 2.0."
Pero si la grafica no lo hacelera o representa, no lo hacelera el software?
-
El demo ese de gun metal entonces no utiliza ninguna de esas mejoras no?.Si quieres hago una captura y la pongo.
-
Pues no, es un rollo porque se supone que deberia emularlo o al menos eso era lo bueno que nos vendieron cuando salieron. Al final se han quedado en una forma de programas mas o menos para todas las tarjetas.
Los Dx 9 si son nuevos, salieron en Enero de este año, comparado con los Dx8 que van ya por los 3 añitos. Y que yo sepa, quitando el Aquamark o como sea, no hay ninguno que requiera exclusivamente los Dx9.
Y siempre con lo mismo, para tener una 5200 y ver los efectos Dx9 como diapositivas mejor una 4200 y no verlos, por lo menos los que ves los vere en condiciones. La tarejta si es mala, si miras las webs veras que no se pueden activar los filtros o tienes que darle a la manivela. Mi 8500LE tambien va como la seda a todo lo que juego pero no por eso es buena.
Lo de los Dx se reduce a que si tu tarjeta acelera por hardware una serie de funciones podras verlas y si no, dependiendo del tipo de funcion, podra emularla o no funcionar.
Los shaders permiten que los desarrolladores programen directamente sobre la GPU, no se obtiene mas calidad grafica ni mejores efectos, simplemene se obtienen efectos de una forma mas sencilla y con menos nedesidad de potencia. Por ejemplo un proramador podra hacer sobre los shaders una funcion que cambie la forma y textura de una figura repetidas veces, ganara tiempo y sencillez. Sin los shaders tendria que hacerlo "el propio juego". Esto es un ejemplo tonto no se si se puede hacer o no.
Volviendo al ejemplo de la "gloriosa" 5200. Cuando el señor Carmack saque su Doom III mi Radeon Dx8.1 lo movera discretamente, la 5200 lo movera igual de discretamente o peor.
Repito por enesima vez, no solo hay que tener el potenciar para hacerlo si no poder moverlo. De que le valen los shaders 2.0 a la fx si su funcionamiento es defectuoso y su rendimiento pesimo, pues mejor no tenerlos y que en el resto de las cosas funcione bien.
-
FX5200 http://es.nvidia.com/page/fx_5200.html
Diseñados para funcionar con todos los juegos y aplicaciones multimedia de última generación, los modelos 5200 son los únicos de su clase en ofrecer total compatibilidad con DirectX 9.
Caracteristicas
Motor CineFX
Proporciona efectos cinematográficos inimaginables. Sus funciones avanzadas de sombreado de vértices y píxeles permiten obtener asombrosos efectos especiales de extraordinaria complejidad. Su mayor capacidad aumenta la velocidad del juego sin perder el rendimiento.
Gráficos de alta precisión
Al combinar la increíble gama de contrastes del cine de animación 3D más moderno con una precisión de color de 128 bits, las GPU GeForce FX proporcionan la mejor calidad de imagen incluso en las aplicaciones más complejas.
Optimizaciones y soporte de DirectX 9.0 (vínculo con el informe técnico)
Diseñada para garantizar compatibilidad con los juegos y aplicaciones multimedia de última generación, la GeForce FX 5200 es la única GPU DX9 de su clase.
Y algo que aqui nadie evalua esta AGP funciona a 256bit, aunque la velocidad de su GPU sea inferior (250Mhz) debe brindar mas rendimiento por su ancho de banda de 256bit, el doble de todas las tearjetas de video de su nivel y costo.
Si quieren hablar de una tarjeta de video profesional, midan la FX5900, Quatro, etc. con Motor CineFXSaludos.
-
Aclarado lo del funcionamiento de los shaders.Por cierto en este caso, todas las tarjetas tienen que soportar los shaders, aparte de nvidia, como ati,matrox?
-
Los shaders podria decirse que es un invento de M$, en realidad los saco nVidia con la ti500 pero a partir de ahi es M$ y cia la que marca las pautas. Se supone es una especie de acuerdo entre todas, o deberia.
dariodommar, muy bonito, eso es lo que dice nVidia, no va a decir que es mala.
Ahora lo que dicen los datos: aqui: http://www.xbitlabs.com/images/video/nv31-nv34/ss2_aa4x.gif que es de esta pagina: http://www.xbitlabs.com/articles/video/display/nv31-nv34_10.html vemos como con los filtros activados la 5200 da poco mas de 25fps, apenas 4 mas que una MX440, frente a una 4200 que da casi el doble.
Pero no es que sea en esa prueba, es todas.
Y de lo que estamos hablando aqui es que el factor determinante es el precio, por menos de 100€ puedes tener una 4200 que, a pesar de no ser Dx9, ofrece un estupendo rendimiento.
Por cierto que la Parhelia de Matrox tenia 512 bits y no por eso es mejor.
Por cierto, aunque pocos, hay juegos muy buenos que son OGL y nadie ha dicho no te compres una grafica si no es compatible con OGL 2.0 o si no soporta x funciones de ogl. No solo de Dx vive el jugador:p
-
GeForce FX 5200 Ultra
Graphics Core: 256-bit
Vertices per Second: 81 million/sec
Memory Bandwidth: 10.4GB/sec
Maximum Memory: 128MB
Fill Rate: 1.3 billion texels/secGeForce4 Ti 4400
Graphics Core: 128-bit
Vertices per Second: 125 Million
Memory Bandwidth: 8.8GB/Sec.
Maximum Memory: 128MB
Fill Rate: 4.4 Billion AA Samples/SecLa fx es 256bit y tiene un ancho banda de memoria superior en 1.6GB/s; pero tiene 44 millones de vertices/s menos.
No hay una gran diferencia entre estos datos. Puede que la ti sea mejor hacendo vertices pero los efectos que haga(iluminacion y demas) seran inferiores a una fx. -
Publicado originalmente por B>>m4n
Puede que la ti sea mejor hacendo vertices pero los efectos que haga(iluminacion y demas) seran inferiores a una fx.esto ya empieza a ser repetitivo. otra vez: por muy bonitos que sean los efectos, no sirven de nada si van lentos :dormido:
-
Publicado originalmente por J_P
esto ya empieza a ser repetitivo. otra vez: por muy bonitos que sean los efectos, no sirven de nada si van lentos :dormido:
Se trata de que valla rapido o muy rapido haciendo vertices.
Esos efectos no la cargan de forma que no se pueda jugar, o se ve por fotogramas. Por supuesto que dentro de un año un juego con efectos desos no se podra jugar a la mas alta calidad con una fx, pero con una ti ni con calidad baja, no se podra jugar y punto.
Lento? Eso pasaria con una targeta de hace 2 años.