NO compreis una tarjeta gráfica que no sea compatible con Direct X 9 sin leer esto
-
no es la primera vez que ATI hace que nvidia se quede atras, la 8500 era mas rapida que la gama GF3 TI, pero se quedo atras con las super GF4TI.
ahora pasa lo mismo.
con la GF4 TI hay un ligero problema, no son 100% D8.1 y las FX tampoco son 100% D9, son mas vagos xD no son capaces de acabar el trabajo.PD: por ahora, valla pedo los deto 50, quitan luces y pierden calidad en las texturas.
-
Os recuerdo que el 3Dmark ya permitia calcular la potencia de shaders de las tarjetas, lo que ocurre es que somos tan hipocritas de, con la vesion 2001, poner cientos de post preguntando como subir 4 miseros puntos pero cuando sale la version 2003 y nVidia dice que no sirve ya todo el mundo dice que este programa es una mierda cuando antes era el dios.
-
El benchmark del GunMetal requiere el Direct9 y una terjeta de las caracteristicas de la FX, ya saben que tengo una FX5200 y una MX440 las 2 de 128Mb y corri este test, la MX440 da error y la FX5200 dio los siguientes valores MinimoFrame 0.60fps AverageFrame 6.55fps y maximoFrame 34.52fps
En los test como 3DMark2003 la MX440 solo corre los 4 primeros y da 860ptos. La FX5200 corre todos los test y da 1006ptos. Lo mismo en el 3DMark2001 y PCMark2002 hay test que no corre la MX y la FX los corre todos y sus puntuaciones son en todos mayores a la MX. Si yo por el mismo precio puedo tener una AGP que me permite estas ventajas por que habria de tener una de tecnologia mas antigua. Y lo del precio, creo que ya lo escribi antes, las 2 con la misma memoria cuestan casi lo mismo, si les parece ahorrar comparar el precio de una MX64DDR con una FX128DDR, creo que no es el parametro correcto a evaluar.
En este momento no hay ningun juego de los que tenemos en casa que no hayan corrido alguna de las 2 tarjetas.En ete mismo foro se publico esta traduccion de la respuesta de Nvidia a Valve, me parecio entender:
"En las últimas 24 horas ha habido un tanto de confusión con respecto a los comentarios que Gabe Newell de Valve hizo en el Shader Day de ATI.
nVIDIA ha tenido un contacto técnico estrecho con valve durante el desarrollo de Half Life 2. No obstante, Valve no nos ha advertido de los temas que Gabe comentó.
Estamos confusos en cuanto al porqué de que Valve escogiera usar la versión 45, ya que con dos semanas de antelación al Shader Day habíamos estado trabajando estrechamente con Valve para asegurar que la versión 50 proporcionase la mejor experiencia posible con el hardware de nVIDIA.
Con relación a los números relativos al rendimiento en Half-Life 2 publicados en la red, creemos que son inválidos, puesto que no usan la revisión 50 de nuestros drivers. Los esfuerzos a nivel de ingeniería con relación a la versión 45 de nuestros drivers llegaron a su fin hace meses para dejar paso a la revisión.
Las optimizaciones de nVIDIA tanto para Half Life 2 como para otros juegos nuevos están incluídas en versión 50 de nuestros drivers, de los cuales ya tienen en versión beta las webs que se dedican a hacer los tests.
La versión 50 es el mejor driver que hemos hecho jamás; incluye optimizaciones importantes para la arquitectura altamente programable FX e incluye beneficios tanto en características como en rendimiento para los más de 100 millones de clientes de GPUs de nVIDIA.
Aún pendientes de información detallada por parte de Valve, tan solo somos conscientes de un error con la revisión 50 y la versión de Half Life 2 de que disponemos: el problema con la niebla a que se refirió Gabe en su presentación. No es ni un fallo ni una optimización extrema. Los Detonator 50 se harán públicos antes de que el juego esté disponible. Ya que conocemos que para obtener el mejor rendimiento con pixel shaders en GPUs GeForce FX se necesita en estos momentos algo de trabajo especializado, nuestro equipo de tecnología trabaja estrechamente con los programadores de juegos.
Parte de esto significa entender que, en muchos casos, el pasar de PS 1.4 a PS 2.0 no proporciona beneficios en calidad de imagen. A veces esto envuelve el convertir operaciones con shaders que utilicen 32 bits de precisión en coma flotante a shaders con 16 bits de precisión con el fin de obtener beneficios de rendimiento en ese modo sin pérdida de calidad de imagen.
Nuestro objetivo es proporcionar al usuario la mejor experiencia posible, lo cual significa que los juegos han de verse e ir bien.
Los code paths óptimo para las GPUs de ati y nVIDIA son diferentes, por lo que tratar de hacer pruebas con ambos utilizando el mismo code path siempre pondrá en desventaja a uno o al otro. Los opciones por defecto para cada juego han sido escogidas tanto por los programadores como por NVIDIA para dar los mejores resultados a nuestros clientes.
Aparte de nuestros esfuerzos con los programadores, nuestro equipo de drivers ha desarrollado un optimizador automático de shaders de nueva generación que mejora, con mucho, el rendimiento global con pixel shaders de las GeForce FX. Se podrá ver el resultado de estos esfuerzos con el lanzamiento de nuestra revisión 50 de los drivers. También se han incluido muchas otras mejoras, creadas, tanto respuesta a como anticipándonos a la primera hornada de juegos DirectX 9, tales como Half Life 2.
Estamos dispuestos a trabajar con Gabe para comprender a plenitud sus preocupaciones, y con Valve para asegurar que los más de 100 millones de usuarios de nVIDIA logren la mejor experiencia posible con Half Life 2"
Saludos. -
-
En este momento no hay ningun juego de los que tenemos en casa que no hayan corrido alguna de las 2 tarjetas.
que dices?no entiendo.
sobre el GUN metal, yo tengo el juego, y es bastante entretenido (pero rayante xD siempre lo mismo) yme rula perfectamente en mi GF 4 TI 4200 128@513.
si quieres jugar con el D9 pillate una a partir de la 9700 o la 9600pro pero hay mucha diferencia entre ambas.
por parte de nvidia, no te compres ninguna xDPD: porque seguimos hablando si aun no tenemos el HL o el DOOM3 o el stalker o ….....
cuando se tenga material en las manos se habla. yo no me fio del amigo tom nide ninguna web, un dia dicen algo otro dia dicen lo contrario. y franxamente despues de ver los resultados que da los deto 50 ( se deja luces, pierden calidad las texturas..... etc......), Nvidia tiene que ponerse algo mas que las pilas.
-
Seguimos hablando porque nos desviamos del tema, el titulo de este tema es "NO compreis una tarjeta grafica que no sea compatible con Direct X 9 sin leer esto" y yo estoy de acuerdo con lo que se plantea, si voy a comprar una grafica en este momento, compraria una de ultima tecnologia que por lo menos maneje Direct9 si tengo disponibilidad de dinero una cara y si no una de nivel medio o bajo, eso es todo lo que se supone que habia que discutir, no que si Nvidia, Ati, Ti, etc. es la mejor. Cuando un no experto lee lo que hemos scrito aqui, podria imaginarse que gastar en una tarjeta de video con direct9 es innecesario y que tranquilamente podria comprar hasta una de 2ª gneracion. Saludos.
-
dariodommar dijo
En los test como 3DMark2003 la MX440 solo corre los 4 primeros y da 860ptos. La FX5200 corre todos los test y da 1006ptos
¿1006 puntos? A mi me da 1495 puntos en el 3D Mark 2003 . Seguramente será por la configuración del test que a tí te da menos puntos
Porque por el PC que tienes es bastante potente y no puede ser por eso.
Yo no sé como lo puse para este resultado pero creo que toque muy poco ya que casi lo deje tal como estaba desde un principio
Pakohuelva dijo
cuando sale la version 2003 y nVidia dice que no sirve ya todo el mundo dice que este programa es una mierda cuando antes era el dios.
No toda la gente decía que fuera una mierda porque lo dijera Nvidia, ya que muchas webs profesionales daban las razones de porque no era bueno y estaba bien explicacadas y tambien demostradas y no era nadie de Nvidia ni una web a favor de Nvidia.
Y además la empresa a perdido mucho a causa de este problema y muchas webs ya no confían en este test porque no es muy fiable y realista.
Luego buscaré una noticia reciente hablando de esto, yo creo que el exito se les subió a la cabeza y les perjudicó.
QUEDAN 22 MINUTOS PARA QUE SE INAUGURE EL AQUAMARK 3 A las 4 en punto
Aqui teneis uno de los mirror que van a estar activos
http://www.warp2search.net/modules.php?name=Downloads&d_op=viewdownload&cid=18
-
En alguna parte alguien dijo que el Half Life 2 como estaba avanzado su programación , no tenía muchos efectos del Direct X 9 y que sólo usaba los shaders
pues..
he encontrado esto que dicen en valve
First Valve were keen to stress that Half Life 2 was written in such a fashion to make effective use of a wide range of DirectX9 functionality – in fact in many places they started with DX9 and deconstructed the operations for DX8 paths. Because of this they go on to suggest that the performance trends displayed under Half Life will be more or less the case with other games that make effective use of DirectX9.
The feature utilisation of DirectX9 with Half Life 2 includes:
1 - High Dynamic Range
2 - Bump Mapped Characters and environments
3 - Soft Shadows
4 - DX9 Shader utilisation
Esta sacado de aqui
http://www.beyond3d.com/misc/hl2/
aqui dicen que no solo usa varias funciones del Direct X 9 , sino que en partes han vuelto a reconstruir el juego y han quitado partes programadas para DX 8 y las han cambiado por DX9 porque así de esta manera se puede comparar y a estar a la última con los próximos juegos que van a salir que van a hacer un efectivo uso de estos Direct X9 que es la tendencia actual.
Y sigo diciendo que por eso puse yo esta rama, porque la tendencia actual en los juegos es que sean programados con Direct X 9, y según se dice que para el año que viene se usará mucho más y cada vez se usará esto en muchas partes del juego
Y si tienes la posibilidad de comprar una tarjeta que sea DirectX 9 y que sea de gama media o alta, y según las pruebas actuales (al menos hasta que no se demuestre lo contrario) lo mejor es comprar una Radeon 9500 PRO , Una 9600 Pro, una 9700 Pro o una 9800 Pro.
Vale la pena esforzarse y buscar la manera de comprar una de estas de aqui arriba antes que comprar una de las otras de gama baja o gama media Direct X 8.
También es considerable las versiones NO PRO, pero como los benchmarks actuales que se han visto, se usa solo la versión PRO pues no se puede comparar
Tal vez cuando hagan comparativas con versiones PRO y NO PRO se puede saber si conviene más pagar un poco más por la versión PRO o no.
-
No toda la gente decía que fuera una mierda porque lo dijera Nvidia, ya que muchas webs profesionales daban las razones de porque no era bueno y estaba bien explicacadas y tambien demostradas y no era nadie de Nvidia ni una web a favor de Nvidia.
El 3DMark03 es exactamente lo mismo que el 2001, va de la misma forma porque te va dar un rendimiento comparativo entre dos tarjetas funcioando con el mismo problema. La cuestion es que con la graficas nVidia no funcionaba bien y para colmo daba poca puntuacion, esto ultimo solo psicologico e inventado por los nuevos usuarios porque los que corrieran el 2001 por primera vez cuando salio verian que la puntuacion tambien era baja.
Curiosamente se ha demostrado que donde las graficas flojeaban con el 3Dmark tb flojean con los juegos, asi que su validez si que tendra.
Ahora nos quieren vender el 3Dmark que, para mi gusto, esta demasiado relacionado con nVidia. Se alega que este test si que valdra porque es de un juego, sin embargo esto no es cierto o es cierto a medias, en el momento que un juego corre un "script" pasa a tener la misma validez que el 3dmark.
-
Por cierto, aqui os pongo las pruebas: http://www.xbitlabs.com/articles/video/display/albatron-fx5900_12.html http://www.xbitlabs.com/images/video/albatron-fx5900/3dm03_g4_hard.gif
Si os fijais vereis como el rendimiento de la 9800 es el doble que el de la 5900, curiosamente lo mismo que dice el Hl y curiosamente ya lo decia el, ahora malogrado, 3dmark.
Y lo mas curioso de todo es que en las primeras pruebas con los nuevos detonators el aquamark consigue unos 8 fps mas y es curioso porque nVidia afirma haber estado trabajando al lado de Valve con el desarrollo del HL2 y en 6 meses que tiene su tarjeta no han sido capaces de aumentar el rendimiento, ha coincidido justamente con los juegos.
-
Tengo los resultados del AquaBench, la configuracion default que arranco en 1024x768x32
GFX: 744
CPU:7137
este valor que no se que induca: 7079
Triangles/seg: 2.131.220 fps
Frams/seg: 7.08fps
DinamicOclusion: 12.17fps
HighParticle: 4.17fps
MaskingEvinrroment: 8.82fps
LargeScalaVegetacion: 4.22fps
LargeScalaTerrain: 8.62fps
Vertex and Pixel: 8.69fps
3DVolumetricFog: 10.78fps
ComplexMultimater: 6.91fps
MasiveOverdraw: 5.06fps3000 LowDetail
7000 MedDetail
20.000 HighDetailEstos son los resultados con la FX5200 en una KT6Delta con Barton2500+@200x10.5 y 512DDR400
Saludos.
-
No tengo ni idea de como va el test y de los resultados que muestra pero en cualqueir caso no se llega ni a los 10fps de media con lo que queda confirmado que la 5200 no es una grafica para tirar en Dx9.
Pero no pasa nada, los que tenemos una Dx8 tampoco podemos:p
¿Alguna imagen que mrezca la pena o no nos perdemos nada si no jugamos?
-
Yo solo corri el Test, no se puede jugar, tiene un viaje submarino, paisajes y una ciudad, luego combates y explosiones, zonas oscuras y otras claras y al final los resultados. Saludos.
-
Mis resultados:
Con este equipo:
XP2600+@2360mhz (236x10)
ABIT NF7-S rev2.0, FSB@236mhz
512mb pc3200@472mhz 9-3-3-2T Corsair XMS
Prophet 9700PRO 325/610@400/715mhzarc.aquamark3.com/arc/arc_view.php?runID=2106436
AquaMark Score: 44048
AquaMark CPU Score: 7883
AquaMark GFX Score: 6111
Average FramesPS: 44.049
Average TrianglesPS: 13260 K
Average PixelPS: n/aLo he pasado en default, vamos no dejaba tocar nada… he visto que ponia 1024x32bits, VERY HIGH DETAIL y Filtro anisotropico@4x
en el foro de benchmark varios, hay un post abierto de resultados del aquamark
-
Pero digo yo que el test mostrara algo y ese algo es, ¿bueno, malo, impresionante, decepcionante….?
-
pako, si acierto de datos:
Les da 32.9fps de media con la RADEON 9800PRO
A mi me da 44fps de media, mucha diferencia me parece a mi, a mi favor digo, y mas que mi equipo es un 2600+ overclockeado pero no llega al nivel del p4 HT ese..
EL equipo de pruebas de esos graficos que veis en la imagen:
Processor: Intel Pentium 4 2.4GHz “C” (800MHz FSB)
Motherboard: ABIT IC7 MAX3
Memory: Kingmax 2x 256MB DDR-400hombre quizas mi XP2600+ podria a estar a la altura en rendimiento grafico..
De todas maneras ahora voy a pasar el test en quality (los drivers) que lo pase con éstos en modo perfomance
Saludos
-
Bueno, acabo de pasar el aquamark con los drivers en quality (bitmap y texturas) y ahora saco 42949 y los FPS media es de 42fps…
Por cierto la imagen que he puesto de los fps dew la 9800, 5900ultra corresponde al dato que sale en los resultados del test como FPS, que es el valor medio de estos
Y yo por lo que veo hasta en quality saco una buena cantidad a lo que daba en el analisis ese... que raro :nono:
-
Acabo de pasar el Aquamark 3 y vaya porquería de resultado
AquaMark Score: 4.312
AquaMark CPU Score: 6.297
AquaMark GFX Score: 447
Average FramesPS: 4.31 FPSEs un 10% de la puntuación de Hitmaker :sisi:
yo ya la puse en la rama de resultados de hardlimit
Lo peor fue el test de high poligon count que iba a 2 frames/segundo , el resto iba entre 4 y 7 FPS.
Como se dice que hay que mirar el lado positivo de las cosas pues al ir a 5 FPS más o menos me ha permitido ver muy tranquilamente y con todo detalle todas las texturas y detalles del benchmark y admirar todos los gráficos. :sisi: cosa que si tuviera una radeon 9800 no podría porque al ir muy rápido no te daría tiempo a ver tantas cosas.
–--------------------------------------------------
Con esto se demuestra lo que yo me temía y lo que decía pakohuelva, que las FX 5200 NO son una buena opción de compra. Yo ya dije que yo puse mal el texto del primer post y tenía que haber aclarado que lo importante era que la tarjeta pudiera MOVER los gráficos frente a que se vieran bien por ser Direct X 9.
Pero aún así la FX 5200 no es una porquería en el sentido de que me ha funcionado bien en todos los juegos que he probado hasta ahora pero está clarisimo que SI es una porquería desde el punto de vista del futuro, ya que no podré jugar en los futuros juegos que sean como estos al menos a calidad máxima.
Y si con este Aquamark me da tan mal resultado ya me imagino lo mal que me va a ir el Half LIfe 2 benchmark que es en teoría más exigente. :sisi:
–------------------------------------------------Hitmaker dijo
Les da 32.9fps de media con la RADEON 9800PRO A mi me da 44fps de media, mucha diferencia me parece a mi, a mi favor digo, y mas que mi equipo es un 2600+ overclockeado pero no llega al nivel del p4 HT ese..
Según veo en el gráfico 32,9 FPS es de la FX 5900 y no la Radeon.
Y además si te das cuenta el test es a 1280x1024 y me supongo que tú tendrás la versión normal que solo va a 1024x768, y tal vez por esto es que te de a ti 44 FPS
–-------------------------------------------------
dariodommar dijoeste valor que no se que induca: 7079 Triangles/seg: 2.131.220 fps Frams/seg: 7.08fps
Tú también tienes una FX 5200 pero tienes 7 FPS y 7079 puntos, ¿ que drivers has usado?
Estos 7079 son los puntos Aquamark, es como los puntos del 3D Mark.
Ponlo en la rama de resultados del aquamark 3 del apartado de benchmarks
-
Con tanta discusión que ha habido aqui de que si la 4200 era mejor que la 5200 porque esta 4200 valía 100€ o menos y he visto en 3 tiendas que la 4200 vale ahora mismo entre 199 y 225€ (este era el precio que tenian antes ¿no? ) y las 4800 valen 260-280€
Supongo que vosotros visitareis otras tiendas que tengan mejores precios pero la verdad es que para pagar 199 € por una 4200 prefiero pagar 180 € para una Radeon 9600 PRO
-
YA he encontrado un NUEVO motivo por el cual NO conviene comprar una tarjeta Direct X 8 y es la nueva tecnología HDR que sólo funciona en gráficas que lleven DirectX 9 y pixel y vertex shader 2.0
El HDR es –> Real-Time High Dynamic Range Image-Based Lighting
Y aqui teneis una breve explicación con muchas fotos
http://www.daionet.gr.jp/~masa/rthdribl/index.html
y la explicación completa está aqui
http://www.debevec.org/HDRShop/
Este HDR se va a usar en el juego Half Life 2
El problema es que es incompatible con las FX de Nvidia
Sobre esto mirad esta rama –> http://www.hardlimit.com/forum/showthread.php?s=&threadid=22114