NO compreis una tarjeta gráfica que no sea compatible con Direct X 9 sin leer esto
-
Puedes tener una tarjeta Dx 3 y poner los Dx9 que mientras que nadie utilice las funciones especificas de las Dx9, es decir, que solo tendras problemas cuando lo uses las cosas que no tienes.
Lo de los dientes de sierra y demas depende mucho de la poligonalidad de la escena y de la calidad de las texturas, ten en cuenta que los filtros actuan de forma similara a los desenfoques gausianos de los porgramas de retoque fotografico, de x puntos trazan los intermedios para suevizar el resultado pero si la fuene que toma no es buena el resultado tampoco lo sera.
Es que no se si os pasa que cuando mirais las muestras de calidad de las tarjetas en los analisis yo no encuentro diferencia, no se si sera cosa mia. Es mas, en algunas pruebas para ver el efecto del AA por ejemplo tienen que hacer un zoom a la imagen de un 400%. Direis lo que querais pero como tu vayas corriendo delante o detras de un tio para cargartelo no te da tiempo a apreciar eso.
El problema de los shaders es que estan muy limitados, no se puede programar cualquier cosa y normalmente se utilizan para mover particulas, por eso en el agua es donde mas se nota la diferencia.
De todas formas como alguien ha dicho por aqui, las demos del Dx8.1 son tambien impresionantes y dan una calidad estupenda, sin embargo ningun juego sale con esa calidad.
-
A pesar de lo que se dice de los juegos que no muestran calidad suficiente para justificar las tarjetas nuevas, creo que va a cambiar a partir de ahora, ya que los progrmadores y creadores de los próximos juegos que van a salir antes de Navidad y los que van a salir en el 2004 van a tener una alta calidad gráfica aprovechando lo más posible los nuevos Direct X 9 y los pixel shader y vertex shaders.
Y si no teneis estos últimos no es tan importante e imprescindible (a no ser que querais verlo de la mejor manera posible) porque las Direct X ya llevan pixel y vertex shaders versión 1.4 y por lo tanto también se verán bien los nuevos juegos.
Yo creo que Nvidia Y ATI están pagandole a los desarrolladores de software para que hagan los juegos con más detalles y calidad y que aprovechen las nuevas funciones de hardware de las nuevas tarjetas así la gente se decide a cambiar sus tarjetas antiguas (me refiero a Direct X 6 y 7) por unas nuevas y más importante será aún cuando pronto saquen las NV40 y la R420 que según parece será para principio del 2004.
Ya he visto varios post y comentarios diciendo que hasta ahora no habían sentido la necesidad de cambiar pero viendo los nuevos juegos , piensan que ahora ha llegado el momento de actualizar la gráfica a una nueva y que ahora hay suficientes motivos.
Y NO HABRA QUE ESPERAR UN UN AÑO PARA VER JUEGOS DIRECT X 9 (o openGL) QUE USEN EL NUEVO HARDWARE , es muy pronto Ya no es como antes
–-------------------------------------------
Sobre este tema voy a poner luego un articulo muy interesante que se llama ¿ puede tu tarjeta gráfica mostrar y mover los estupendos gráficos del Half Life 2 ?
Donde se muestra la realidad actual y que podemos esperar de nuestras tarjetas gráficas.
-
Pero vamos a ver, el tiempo de desarrollo de un videojuego no es inferior a dos años y suele rondar 3 ó 4, teniendo en cuenta que los Dx9 salieron el año pasado en Enero y suponiendo que los desarrolladores accedieran a una beta utilizable 6 meses antes aun tardaremos en ver juegos que realmente exploten estas bibliotecas al menos 6 meses mas.
Los priemros que aportan algo Dx9 son los que estaban desarrollando algo sobre los Shaders 1.x y lo han modificado para aprovechar los nuevos, pero Dx9 son muchas cosas mas y no solo shaders.
Ya puestos me gustaria que me pusierais los juegos que usaran Dx9 y los que lo requeriran obligatoriamente.
-
"creadores de los próximos juegos que van a salir antes de Navidad y los que van a salir en el 2004 van a tener una alta calidad gráfica aprovechando lo más posible los nuevos Direct X 9 y los pixel shader y vertex shaders."
Era hora de que los programadores aprovecharan las cualidades de la tarjeta grafica.Esta vez parece que si lo van a hacen, por que si ati y nvidia tienen lo mismo, lo habra incompatibilidades.
Y con respecto al tema principal, comprar lo que se necesita.
-
Pakohuelva
Perdona que te diga, pero ¿ acaso las revistas de juegos mienten? ¿ Acaso las cientos de webs que hay de juegos se equivocan al hacer los comentarios de los juegos ?
No me preguntes ¿ cómo lo hacen los programadores y diseñadores de juegos ?
yo lo único que sé es que hay un monton de reviews de juegos que hablan de las maravillas del Direct X 9 y de los pixel/vertex shader 2.0 y que he visto ya muchas veces que dicen "este juego va a aprovechar al máximo las características de hardware de las nuevas Radeon y Geforce FX" y además lo he podido comprobar personalmente
Tengo un DVD que tiene 27 películas de futuros juegos y varias demos jugables y también he visto muchas fotos, y ahora SI me creo que realmente que varios programadores de importantes empresas se están
En ningún caso he dicho que sean imprescindibles y necesarias, y creo que nunca nadie haría un juego en que funcionara exclusivamente con Direct X 9, y estos pixel shader 2.0. Simplemente porque lo que se pretende es vender y no sería rentable para nada.Otra cosa diferente es que se hagan diferentes versiones del mismo juego y que se autoconfigure para la tarjeta gráfica que se tenga.
y siguiendo con el tema del Half life 2, este juego parece que tiene 4 versiones
1 - la mejor configuración de todas con todos detalles al máximo y todos los efectos que han creado los programadores y tal como ellos quieren que se vea , SOLO es posible ponerlo si se tiene una tarjeta compatible Direct X 9 y que lleve los pixel/vertex shader 2.0
2 - Configuración inferior pero que SIGUE conservando la mayoría de los efectos importantes, solo que ciertos detalles gráficos y ciertos efectos no están activados. Esto es para tarjetas compatible Direct X 8
3 - No se incluye muchos de los efectos y aunque se ve bien , se ve bastante más plano y no hay detalles importantes, se ve al estilo del Half life 1. Esto es para Direct X 7
4 - Es la peor y estan todos los gráficos al minimo, sin efectos, con un cielo estático sin cambios, etc.
¿ A VOSOTROS QUE VERSION OS GUSTA MAS?
Evidentemente a todos les gustaría la opción 1, pero claro para esto se necesita una tarjeta de gama media o alta de las nuevas y tener un PC bien equipado, aunque no tiene que llevar lo último.
SI no tienes suficiente dinero para esto, como mucha gente, te tienes que comprar una tarjeta de gama baja y ahora después de haber visto ciertas cosas estoy de acuerdo en que se compre una Geforce 4200 si es barata porque a pesar de no ser Direct X 9, va a mostrar más fluidamente los gráficos y es mejor que se muevan bien y verlos ligeramente peor, que verlos perfectos y que se muevan mal.
-
yo sigo con lo mismo, las demos de Nvidia para el D8.1 son impresionantes. pero cuantos juegos usan eso?
las graficas de Nvidia creo que no son 100% D9. Si de verdad quieres una grafica D9 lo mejor es una ati. incluso en la gama alta.
PD: ya se sabe el nombre del NV28, parece que se llamara GeForce FX 5950 Ultra, que original no?? xDD
link pero en frances :http://www.clubic.com/n/n9903.html -
Antes de haber la version 2 de los pixel/vertex shader, habia la 1.No hay ningun juego que las aproveche?A lo mejor estos que van a salir salen con las versiones anteriores de shaders, o es definitivamente con la 2?
-
Perdona que te diga, pero ¿ acaso las revistas de juegos mienten? ¿ Acaso las cientos de webs que hay de juegos se equivocan al hacer los comentarios de los juegos ?
La respuesta es sencilla: SI. Yo no estoy diciendo que tenga la razon ni mucho menos pero que las revistas y webs mienten no lo se pero que se equivocan si y te puedo poner un monton de ejemplos, busca por el general y encontraras algunos.
Muchos de los que escriben en las webs online son tios como tu o como yo que reciben un juego en su casa y ponen los resultados. Otros muchos leen lo que se ha puesto en otros sitios y lo copian o traducen malamente. Y por ultimo estan los que copian la informacion de fabricante.
Yo me apuesto contigo lo que quieras que delante de dos escenas, una con Shaders 1.4 y la otra con la 2, no eres capaz de distinguir una de la otra.
Os explicare como funciona esto. Resulta que un fabricante de tarjetas diseña una serie de chips de una geenracion Dx8, de esto hace unos 2 o 3 años, salen las ti500, GF4 y 8500. Por supuesto el aumento de potencia es considerable y todo el mundo compra estas tarjetas. Al año siguiente saca otros chips que son iguales que los anteriores pero van mas rapido, ¿pero que pasa?, pues que antes los juegos ya iban a 200 fps, ¿para que mas rapido?. Solucion: digo que los nuevos son Dx9 y que sin Dx9 los juegos son una porqueria, esto va a ser lo nunca visto.
Y el tio te vende una 5200 que es Dx9 pero no lo mueve, sin embargo has hecho una gran compra porque es Dx9.
Por otro lado esta el estudio de desarrollo que ha empezado un juego en Dx7, cuando lleva 1 año de desarrollo le llegan las Dx8 y resulta que puede hacer gran cantidad de cosas que antes no, modifica su programa para que funcione en Dx8. Al año siguiente llegan las Dx9, ¿cuando termina este estudio el juego?.
Pero tambien pasa lo siguiente. La gran compañia de videojuegos tiene un estudio que ha terminado un juego y esta a punto de lanzarlo, cambian su sdk por el Dx9 y recompilan, ¿resultado?, el mismo juego que necesita las Dx9 a la fuerza.
Y despues esta la solucion intermedia, el estudio que ve hay ciertas funciones interesantes en las Dx9 y usa 2 ó 3 funciones lo que hara que su proyecto se retrase 2 meses, pero no lo cambia entero.
¿Habeis visto alguien el SDK de las Dx8?¿Sabeis la cantidad de funciones que tiene? ¿Crees que en un año un estudio puede aprenderse todas las funciones de Dx9 y aprovecharlas al 100%? Una consola tarda al menos 3 años en sacar sus mejores juegos, ¿por que en un PC es distinto?.
P.D.: Me interesaria esa lista de juegos Dx9 para saber que es lo ofrecen realmente.
-
Publicado originalmente por pakohuelva
Y el tio te vende una 5200 que es Dx9 pero no lo mueve, sin embargo has hecho una gran compra porque es Dx9.Es mania pos traumatica o neumonia asiatica; dale con decir que no lo mueve
Jejejeje, si no tienes una fx5200 no digas si lo mueve o no, busca frases alternativas pzl sino parece que es una mierda, y no lo es.Acaso pensais que se hacen targetas dx9 por necesidad, no, es el comercio. Ahora bien si juegas un juego dx9 para aprobecharlo al maximo nocesitas una tageta dx9.
Los fabricantes de targetas y las compañias de juegos trabajan(no siempre) conjuntamente, por ello no tenemos que esperar un año para tener un juego que aprobeche una grafica recien fabricada.
Tambien decias que se tardan como minimo en hacerse un juego 2 años, y es cierto, pero al igual que las peliculas primero se filman y despues se ponen los detalles finales y los efectos especiales. -
Amigos, el test denominado CodeCreature evalua todos las caracteristicas del direct9, lo mismo que lo hace el 3DMark2003, y los 2 Test los corre la FX5200, en el 3DMark2003 la puntuacion de mi equipo es de 1006 y no deja de correr ningun test, saludos.
-
B>>m4n, que los mueve lo dices tu porque a mi no me has demostrado que lo haga y yo si e he demostrado que no lo hace.
Mas pruebas:
Esta imagen: http://www.xbitlabs.com/images/video/nv31-nv34/ps20.gif de esta pagina: http://www.xbitlabs.com/articles/video/display/nv31-nv34_6.html Una Albatron GeForce 5200 mueve los Shaders 2.0 del 3DMark a 7.4 fps a 1024, ¿consideras que eso es mover Dx9? La 9500 da 35.Yo no se tu pero si me tengo que gastar 100€ en una tarjeta y me voy a comprar una 5200 en vez de una Dx8 porque es Dx9 y esta mueve el juego a menos de 8 fps y en Dx8 le gana la otra pues yo prefiero la otra.
Ahora dame tu una prueba de que esa tarjeta es capaz de mover una escena con funciones Dx9 a mas de 30fps.
Por cierto
Los fabricantes de targetas y las compañias de juegos trabajan(no siempre) conjuntamente, por ello no tenemos que esperar un año para tener un juego que aprobeche una grafica recien fabricada.
Eso no te lo crees ni tu. Las desarrolladoras que tienen algo de ayuda son Id, la del Hl, Max Payne, Unreal y para de contar. ¿Te crees que nVidia va a ayudar a todos los estudios de desarrollo?. Anda ya hombre.
No seamos tan credulos y vamos a pensar un poquito que de la misma forma que no hizo falta el AGP 8X, no hace falta el PCI Express o los 256Mb de ram tampoco hace falta Dx9 para programar un juego visualmente impresionante.
Por cierto: http://www.digital-daily.com/video/nvidia-nv34/index03.htm
-
Respecto al ultimo link, la GeForce4 MX sali 420, 440 y 460, yo no conzco ninguna MX480
http://es.nvidia.com/page/geforce4mx.htmlY por que no nombras el juego que no se puede jugar o el grafico que no se puede representar y probamos sencillamente, en lugar de especular.
Por cierto acabo de cambiar el mother KT3 por un KT6 Delta, ya posteare sobre el, en este momento tengo el Barton2500+ configurado FSB200x10.5, pero tengo problemas con el monitor que me da parpadeo derrepente.
Saludos. -
dariodommar, me temo que la mx 480 no es mas que una 440 con agp8x…o sea...una tontá
editado: por poco SPINAKER, pero soy más rápido que tu
-
la 480 MX creo que era una version del GF 4 XXX MX con el AGP 8X suena a mas marketing xDD
estaria bien que pensaran un poco mas al cliente no??
-
En la pagina de Nvidia no existe la AGP GeForce4MX480, existe hasta la MX460 y la MX440 existe 4X y 8X ademas de poderlas conseguir en 64Mb y 128Mb.
Asi que esa comparativa con la MX480, algo raro tiene.
Saludos. -
dariodommar, te he dicho con que salen esos resultados, lo he dicho como en tres post ya lo que pasa es que no leemos, ese en concreto he dicho que es con la prueba de shaders del 3Dmark, vale que no es un juego pero es que no hay ninguno, en cuanto lo haya no te preocupes que te lo pongo.
Sobre la MX si no te vale ese, que coincido contigo que es raro y no por el modelo si no por los resultados, te pongo este para que me digas que diferencias, sin filtro hay entre una MX y un 5200.http://www.xbitlabs.com/articles/video/display/nv31-nv34_9.html A mi me sale que a mayor resolucion menos rendimiento que la MX. Y si en esos mismos graficos miras la 4200 es para ponerse a llorar.
La unica ventaja REAL que tiene una 5200 es el precio y resulta que por el mismo precio las hay mejores pues….
-
Bueno, yo tengo las 2 y puedo compararlas cada vez que quiera, estan en equipos similares y la FX es superior a la MX, por lo menos en lo que manejamos nosotros aqui. Saludos.
-
Juas juas juas.
Sigo diciendo lo que ya e dicho.
1- La fx5200 NO me parece una mierda y si mueve los juegos(242 fps en quake demo 800*600), aunque es verdad que la ti los mueve mejor.
Hay una pequeña diferencia de moverlos shaders 2.0 a 8fps a no verlos, en la realidad no me creo que un juego que en cierta parte utilice los pixel shader 2.0 haga que lleguen los fps a 8. Como se han realizado los tests??? Con que activado y desactivado. Los 8fps los daban en una escena que todo era pixel shader 2.0 o solo lo utilizaba en parte(como en un juego real)? Ep, no me a quedado claro eso.
2- Si quieres sacar el maximo rendimiento a un juego dx9, necesitas una grafica dx9.
3- Algunos juegos se hacen en colaboracion con las compañias que hacen graficas; y en la mayoria de los juegos, creo yo, que se pondran los efectos y todas la choradillas al final. Con lo cual no se tarda 2 o 3 años en disfrutar de un juego que saque partido a una targeta recien fabricada.
Y como e comentado en otra rama las ti me parecen una excelente eleccion.
Yo elegi entre una mx y una fx5200 xD. Saludos -
"creo yo, que se pondran los efectos y todas la choradillas al final. Con lo cual no se tarda 2 o 3 años en disfrutar de un juego que saque partido a una targeta recien fabricada."
Eso me parece que no es asi.Cuando desarrollan el juego desarrollan tambien los efectos y el motor grafico que los mueve, y sin motor grafico no hay juego, y es una de las cosas que no se deja para el ultimo dia, ni se hace en una dia
-
aqui acaba el hilo.
en http://www.anandtech.com/showdoc.html?i=1862 dicen que tienen una demo bench del HL 2. y Se ve que Valve a echo una especie de optimizacion para que las Nvidia pudieran mover el juego. se ve que la ATi 9600 pro le da caña al 5900 ultra.
para los¡¡¡ 5200 ultra powers !!
- Valve recommends running geforce fx 5200 and 5600 cards in dx8 mode in order to get playable frame rates
el resto:
-Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;
- Valve recommends running geforce fx 5200 and 5600 cards in dx8 mode in order to get playable frame rates.
- even with the special NV3x codepath, ATI is the clear performance leader under Half-Life 2 with the Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath;
- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra;
- ATI didn't need these special optimizations to perform well and Valve insists that they have not optimized the game specifically for any vendor.