NO compreis una tarjeta gráfica que no sea compatible con Direct X 9 sin leer esto
-
Pero vamos a ver, el tiempo de desarrollo de un videojuego no es inferior a dos años y suele rondar 3 ó 4, teniendo en cuenta que los Dx9 salieron el año pasado en Enero y suponiendo que los desarrolladores accedieran a una beta utilizable 6 meses antes aun tardaremos en ver juegos que realmente exploten estas bibliotecas al menos 6 meses mas.
Los priemros que aportan algo Dx9 son los que estaban desarrollando algo sobre los Shaders 1.x y lo han modificado para aprovechar los nuevos, pero Dx9 son muchas cosas mas y no solo shaders.
Ya puestos me gustaria que me pusierais los juegos que usaran Dx9 y los que lo requeriran obligatoriamente.
-
"creadores de los próximos juegos que van a salir antes de Navidad y los que van a salir en el 2004 van a tener una alta calidad gráfica aprovechando lo más posible los nuevos Direct X 9 y los pixel shader y vertex shaders."
Era hora de que los programadores aprovecharan las cualidades de la tarjeta grafica.Esta vez parece que si lo van a hacen, por que si ati y nvidia tienen lo mismo, lo habra incompatibilidades.
Y con respecto al tema principal, comprar lo que se necesita.
-
Pakohuelva
Perdona que te diga, pero ¿ acaso las revistas de juegos mienten? ¿ Acaso las cientos de webs que hay de juegos se equivocan al hacer los comentarios de los juegos ?
No me preguntes ¿ cómo lo hacen los programadores y diseñadores de juegos ?
yo lo único que sé es que hay un monton de reviews de juegos que hablan de las maravillas del Direct X 9 y de los pixel/vertex shader 2.0 y que he visto ya muchas veces que dicen "este juego va a aprovechar al máximo las características de hardware de las nuevas Radeon y Geforce FX" y además lo he podido comprobar personalmente
Tengo un DVD que tiene 27 películas de futuros juegos y varias demos jugables y también he visto muchas fotos, y ahora SI me creo que realmente que varios programadores de importantes empresas se están
En ningún caso he dicho que sean imprescindibles y necesarias, y creo que nunca nadie haría un juego en que funcionara exclusivamente con Direct X 9, y estos pixel shader 2.0. Simplemente porque lo que se pretende es vender y no sería rentable para nada.Otra cosa diferente es que se hagan diferentes versiones del mismo juego y que se autoconfigure para la tarjeta gráfica que se tenga.
y siguiendo con el tema del Half life 2, este juego parece que tiene 4 versiones
1 - la mejor configuración de todas con todos detalles al máximo y todos los efectos que han creado los programadores y tal como ellos quieren que se vea , SOLO es posible ponerlo si se tiene una tarjeta compatible Direct X 9 y que lleve los pixel/vertex shader 2.0
2 - Configuración inferior pero que SIGUE conservando la mayoría de los efectos importantes, solo que ciertos detalles gráficos y ciertos efectos no están activados. Esto es para tarjetas compatible Direct X 8
3 - No se incluye muchos de los efectos y aunque se ve bien , se ve bastante más plano y no hay detalles importantes, se ve al estilo del Half life 1. Esto es para Direct X 7
4 - Es la peor y estan todos los gráficos al minimo, sin efectos, con un cielo estático sin cambios, etc.
¿ A VOSOTROS QUE VERSION OS GUSTA MAS?
Evidentemente a todos les gustaría la opción 1, pero claro para esto se necesita una tarjeta de gama media o alta de las nuevas y tener un PC bien equipado, aunque no tiene que llevar lo último.
SI no tienes suficiente dinero para esto, como mucha gente, te tienes que comprar una tarjeta de gama baja y ahora después de haber visto ciertas cosas estoy de acuerdo en que se compre una Geforce 4200 si es barata porque a pesar de no ser Direct X 9, va a mostrar más fluidamente los gráficos y es mejor que se muevan bien y verlos ligeramente peor, que verlos perfectos y que se muevan mal.
-
yo sigo con lo mismo, las demos de Nvidia para el D8.1 son impresionantes. pero cuantos juegos usan eso?
las graficas de Nvidia creo que no son 100% D9. Si de verdad quieres una grafica D9 lo mejor es una ati. incluso en la gama alta.
PD: ya se sabe el nombre del NV28, parece que se llamara GeForce FX 5950 Ultra, que original no?? xDD
link pero en frances :http://www.clubic.com/n/n9903.html -
Antes de haber la version 2 de los pixel/vertex shader, habia la 1.No hay ningun juego que las aproveche?A lo mejor estos que van a salir salen con las versiones anteriores de shaders, o es definitivamente con la 2?
-
Perdona que te diga, pero ¿ acaso las revistas de juegos mienten? ¿ Acaso las cientos de webs que hay de juegos se equivocan al hacer los comentarios de los juegos ?
La respuesta es sencilla: SI. Yo no estoy diciendo que tenga la razon ni mucho menos pero que las revistas y webs mienten no lo se pero que se equivocan si y te puedo poner un monton de ejemplos, busca por el general y encontraras algunos.
Muchos de los que escriben en las webs online son tios como tu o como yo que reciben un juego en su casa y ponen los resultados. Otros muchos leen lo que se ha puesto en otros sitios y lo copian o traducen malamente. Y por ultimo estan los que copian la informacion de fabricante.
Yo me apuesto contigo lo que quieras que delante de dos escenas, una con Shaders 1.4 y la otra con la 2, no eres capaz de distinguir una de la otra.
Os explicare como funciona esto. Resulta que un fabricante de tarjetas diseña una serie de chips de una geenracion Dx8, de esto hace unos 2 o 3 años, salen las ti500, GF4 y 8500. Por supuesto el aumento de potencia es considerable y todo el mundo compra estas tarjetas. Al año siguiente saca otros chips que son iguales que los anteriores pero van mas rapido, ¿pero que pasa?, pues que antes los juegos ya iban a 200 fps, ¿para que mas rapido?. Solucion: digo que los nuevos son Dx9 y que sin Dx9 los juegos son una porqueria, esto va a ser lo nunca visto.
Y el tio te vende una 5200 que es Dx9 pero no lo mueve, sin embargo has hecho una gran compra porque es Dx9.
Por otro lado esta el estudio de desarrollo que ha empezado un juego en Dx7, cuando lleva 1 año de desarrollo le llegan las Dx8 y resulta que puede hacer gran cantidad de cosas que antes no, modifica su programa para que funcione en Dx8. Al año siguiente llegan las Dx9, ¿cuando termina este estudio el juego?.
Pero tambien pasa lo siguiente. La gran compañia de videojuegos tiene un estudio que ha terminado un juego y esta a punto de lanzarlo, cambian su sdk por el Dx9 y recompilan, ¿resultado?, el mismo juego que necesita las Dx9 a la fuerza.
Y despues esta la solucion intermedia, el estudio que ve hay ciertas funciones interesantes en las Dx9 y usa 2 ó 3 funciones lo que hara que su proyecto se retrase 2 meses, pero no lo cambia entero.
¿Habeis visto alguien el SDK de las Dx8?¿Sabeis la cantidad de funciones que tiene? ¿Crees que en un año un estudio puede aprenderse todas las funciones de Dx9 y aprovecharlas al 100%? Una consola tarda al menos 3 años en sacar sus mejores juegos, ¿por que en un PC es distinto?.
P.D.: Me interesaria esa lista de juegos Dx9 para saber que es lo ofrecen realmente.
-
Publicado originalmente por pakohuelva
Y el tio te vende una 5200 que es Dx9 pero no lo mueve, sin embargo has hecho una gran compra porque es Dx9.Es mania pos traumatica o neumonia asiatica; dale con decir que no lo mueve
Jejejeje, si no tienes una fx5200 no digas si lo mueve o no, busca frases alternativas pzl sino parece que es una mierda, y no lo es.Acaso pensais que se hacen targetas dx9 por necesidad, no, es el comercio. Ahora bien si juegas un juego dx9 para aprobecharlo al maximo nocesitas una tageta dx9.
Los fabricantes de targetas y las compañias de juegos trabajan(no siempre) conjuntamente, por ello no tenemos que esperar un año para tener un juego que aprobeche una grafica recien fabricada.
Tambien decias que se tardan como minimo en hacerse un juego 2 años, y es cierto, pero al igual que las peliculas primero se filman y despues se ponen los detalles finales y los efectos especiales. -
Amigos, el test denominado CodeCreature evalua todos las caracteristicas del direct9, lo mismo que lo hace el 3DMark2003, y los 2 Test los corre la FX5200, en el 3DMark2003 la puntuacion de mi equipo es de 1006 y no deja de correr ningun test, saludos.
-
B>>m4n, que los mueve lo dices tu porque a mi no me has demostrado que lo haga y yo si e he demostrado que no lo hace.
Mas pruebas:
Esta imagen: http://www.xbitlabs.com/images/video/nv31-nv34/ps20.gif de esta pagina: http://www.xbitlabs.com/articles/video/display/nv31-nv34_6.html Una Albatron GeForce 5200 mueve los Shaders 2.0 del 3DMark a 7.4 fps a 1024, ¿consideras que eso es mover Dx9? La 9500 da 35.Yo no se tu pero si me tengo que gastar 100€ en una tarjeta y me voy a comprar una 5200 en vez de una Dx8 porque es Dx9 y esta mueve el juego a menos de 8 fps y en Dx8 le gana la otra pues yo prefiero la otra.
Ahora dame tu una prueba de que esa tarjeta es capaz de mover una escena con funciones Dx9 a mas de 30fps.
Por cierto
Los fabricantes de targetas y las compañias de juegos trabajan(no siempre) conjuntamente, por ello no tenemos que esperar un año para tener un juego que aprobeche una grafica recien fabricada.
Eso no te lo crees ni tu. Las desarrolladoras que tienen algo de ayuda son Id, la del Hl, Max Payne, Unreal y para de contar. ¿Te crees que nVidia va a ayudar a todos los estudios de desarrollo?. Anda ya hombre.
No seamos tan credulos y vamos a pensar un poquito que de la misma forma que no hizo falta el AGP 8X, no hace falta el PCI Express o los 256Mb de ram tampoco hace falta Dx9 para programar un juego visualmente impresionante.
Por cierto: http://www.digital-daily.com/video/nvidia-nv34/index03.htm
-
Respecto al ultimo link, la GeForce4 MX sali 420, 440 y 460, yo no conzco ninguna MX480
http://es.nvidia.com/page/geforce4mx.htmlY por que no nombras el juego que no se puede jugar o el grafico que no se puede representar y probamos sencillamente, en lugar de especular.
Por cierto acabo de cambiar el mother KT3 por un KT6 Delta, ya posteare sobre el, en este momento tengo el Barton2500+ configurado FSB200x10.5, pero tengo problemas con el monitor que me da parpadeo derrepente.
Saludos. -
dariodommar, me temo que la mx 480 no es mas que una 440 con agp8x…o sea...una tontá
editado: por poco SPINAKER, pero soy más rápido que tu
-
la 480 MX creo que era una version del GF 4 XXX MX con el AGP 8X suena a mas marketing xDD
estaria bien que pensaran un poco mas al cliente no??
-
En la pagina de Nvidia no existe la AGP GeForce4MX480, existe hasta la MX460 y la MX440 existe 4X y 8X ademas de poderlas conseguir en 64Mb y 128Mb.
Asi que esa comparativa con la MX480, algo raro tiene.
Saludos. -
dariodommar, te he dicho con que salen esos resultados, lo he dicho como en tres post ya lo que pasa es que no leemos, ese en concreto he dicho que es con la prueba de shaders del 3Dmark, vale que no es un juego pero es que no hay ninguno, en cuanto lo haya no te preocupes que te lo pongo.
Sobre la MX si no te vale ese, que coincido contigo que es raro y no por el modelo si no por los resultados, te pongo este para que me digas que diferencias, sin filtro hay entre una MX y un 5200.http://www.xbitlabs.com/articles/video/display/nv31-nv34_9.html A mi me sale que a mayor resolucion menos rendimiento que la MX. Y si en esos mismos graficos miras la 4200 es para ponerse a llorar.
La unica ventaja REAL que tiene una 5200 es el precio y resulta que por el mismo precio las hay mejores pues….
-
Bueno, yo tengo las 2 y puedo compararlas cada vez que quiera, estan en equipos similares y la FX es superior a la MX, por lo menos en lo que manejamos nosotros aqui. Saludos.
-
Juas juas juas.
Sigo diciendo lo que ya e dicho.
1- La fx5200 NO me parece una mierda y si mueve los juegos(242 fps en quake demo 800*600), aunque es verdad que la ti los mueve mejor.
Hay una pequeña diferencia de moverlos shaders 2.0 a 8fps a no verlos, en la realidad no me creo que un juego que en cierta parte utilice los pixel shader 2.0 haga que lleguen los fps a 8. Como se han realizado los tests??? Con que activado y desactivado. Los 8fps los daban en una escena que todo era pixel shader 2.0 o solo lo utilizaba en parte(como en un juego real)? Ep, no me a quedado claro eso.
2- Si quieres sacar el maximo rendimiento a un juego dx9, necesitas una grafica dx9.
3- Algunos juegos se hacen en colaboracion con las compañias que hacen graficas; y en la mayoria de los juegos, creo yo, que se pondran los efectos y todas la choradillas al final. Con lo cual no se tarda 2 o 3 años en disfrutar de un juego que saque partido a una targeta recien fabricada.
Y como e comentado en otra rama las ti me parecen una excelente eleccion.
Yo elegi entre una mx y una fx5200 xD. Saludos -
"creo yo, que se pondran los efectos y todas la choradillas al final. Con lo cual no se tarda 2 o 3 años en disfrutar de un juego que saque partido a una targeta recien fabricada."
Eso me parece que no es asi.Cuando desarrollan el juego desarrollan tambien los efectos y el motor grafico que los mueve, y sin motor grafico no hay juego, y es una de las cosas que no se deja para el ultimo dia, ni se hace en una dia
-
aqui acaba el hilo.
en http://www.anandtech.com/showdoc.html?i=1862 dicen que tienen una demo bench del HL 2. y Se ve que Valve a echo una especie de optimizacion para que las Nvidia pudieran mover el juego. se ve que la ATi 9600 pro le da caña al 5900 ultra.
para los¡¡¡ 5200 ultra powers !!
- Valve recommends running geforce fx 5200 and 5600 cards in dx8 mode in order to get playable frame rates
el resto:
-Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;
- Valve recommends running geforce fx 5200 and 5600 cards in dx8 mode in order to get playable frame rates.
- even with the special NV3x codepath, ATI is the clear performance leader under Half-Life 2 with the Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath;
- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra;
- ATI didn't need these special optimizations to perform well and Valve insists that they have not optimized the game specifically for any vendor.
-
Eso era lo que venia a poner yo ahora mismo, parece que queda claro que Valve, desarrolladora de HL2, el juego que aqui se esta poniendo como ejemplo de las virtudes de Dx9 NO RECOMIENDA jugar con una 5600 o 5200 en el modo Dx9 a pesar de que las tarjetas son Dx9 ya que no son capaces de mover el juego con la velocidad suficiente.
B>>m4n, espero que te haya quedado ya suficientemente claro. Por otro lado veo que sigues sin leer, la configuracion de las pruebas estan en la pagina que te he enlazado, le das al principio del articulo y veras el equipo utilizado, esta es la pagina de la configuracion: http://www.xbitlabs.com/articles/video/display/nv31-nv34_4.html y esto los datos:
Intel Pentium 4 2800MHz CPU;
ASUS P4S8X (SiS648) mainboard;
512MB DDR400 SDRAM;
IBM DTLA 305030 30GB HDD.The software set included:
Microsoft Windows XP Professional;
Microsoft DirectX 9.0;
SiS AGP v. 114 driver;
Detonator 43.45 for NVIDIA based graphics cards;
Catalyst 3.1 for ATI based graphics cards.Our today’s heroes will be tested against the following rivals:
NVIDIA GeForce4 Ti4200-8x 128MB, 250MHz chip / 512MHz (256MHz DDR) memory;
NVIDIA GeForce4 MX440-8x 128MB, 275Mhz chip / 512MHz (256MHz DDR) memory;
ATI RADEON 9500 Pro 128MB, 275MHz chip / 540MHz (270MHz DDR) memory;
ATI RADEON 9000 Pro 128MB, 275MHz chip/ 500MHz (250MHz DDR) memory.- La fx5200 NO me parece una mierda y si mueve los juegos(242 fps en quake demo 800*600), aunque es verdad que la ti los mueve mejor.
EL Quake tiene ya dos añitos y me lo estas poniendo a 800, ponlo a 1024 y activale los filtros y veras en lo que se queda. Ahor a haz lo mismo con un juego nuevo, en el Spliter Cell por ejemplo no llega a 30 fps, la pagina en Beyond 3D.
Hay una pequeña diferencia de moverlos shaders 2.0 a 8fps a no verlos, en la realidad no me creo que un juego que en cierta parte utilice los pixel shader 2.0 haga que lleguen los fps a 8. Como se han realizado los tests??? Con que activado y desactivado. Los 8fps los daban en una escena que todo era pixel shader 2.0 o solo lo utilizaba en parte(como en un juego real)? Ep, no me a quedado claro eso.
Vaya tonteria, me estas diciendo que te conformas con verlos a 8fps, pues esta muy bien, a ese ritmo desde que un tio te dispara hasta que te llega el proyectil pueden pasar dos minutos. Otra tonteria lo de si lo ultilizan enteros o solo en parte, ¿que mas te da?. Si la prueba los usa enteros y los juegos solo en parte es que no estan aprovechandolos y es cuestion de tiempo que los usen enteros con lo que el resultado es el mismo. Por otro lado si solo los usan en parte es todavia peor porque ni asi van rapidos.
3- Algunos juegos se hacen en colaboracion con las compañias que hacen graficas; y en la mayoria de los juegos, creo yo, que se pondran los efectos y todas la choradillas al final. Con lo cual no se tarda 2 o 3 años en disfrutar de un juego que saque partido a una targeta recien fabricada.
Evidentemente no tienes ni idea de como se hace un juego. Lo primero que tienes que hacer del juego es el motor y este incluye sonido, ia, colisiones, luces, fisica, etc, es decir, todo lo que puede hacer el juego. Lo ultimo que se hacen son los mapas, objetos, etc. Esto es asi porque si se hiciese al reves ya me diras tu para que quieres un mapa y unos personajes si no los puedes mover. Como ejemplo curioso te dire que Id ha desarrollado el motor de DOOM III y sin embargo para los mapas es ayudada por otra emrpesa. Luego no se pueden poner los efectos al final, los tienes que poner en el motor y eso significa modificarlos.
Y te digo lo mismo, son excepcion los juegos que cuentan con ayuda de los fabricantes, normalmente son las segundas partes de juegos que en la primera parte arrasaron.
Y como e comentado en otra rama las ti me parecen una excelente eleccion. Yo elegi entre una mx y una fx5200 . Saludos
Que sea la grafica que tu tienes no significa que sea buena eleccion, logicamente entre una MX y 5200 al mismo precio pues mejor la segunda pero entre una 4200/8500 y una 5200 pues mejor la primera por mucho Dx que tenga esta ultima.
-
en esta web hay un grafico sobre todo esto, no lo he visto porque la web va muy lenta. haber si podeis ver de que va.
creo que es una grfica sobre el HL 2 y las Graficas