-
Hombre, que no sea tan espectacular…. a mi me parece que no esta nada mal, aunque si lo viera suave igual me gustaba mas xD
Las capturas que he visto del Mother Nature me han parecido impresionantes, ojala pudiera verlo xD
Aunque tambien me parecieron impresionantes las capturas de los otros tests, y al verlas en tiempo real, pues si, esta muy bien hecho, pero no se.... no puedo apreciar nada si me va a trompicones xD
-
Yo estoy de acuerdo con Nemes1S, este test esta hecho a lo "bestia" par explotar las tarjetas graficas, se pueden conseguir los mismos o mejores resultados con menos maquinas en cuanto se optimice el software.
Podria haberse aprovechado mejor la tecnologia y no por ello iba a ser peor test.
-
Pues esta claro que a los de HardOCP no les ha hecho mucha gracia: http://www.hardocp.com/article.html?art=NDMw
-
Francamente, aunque no me ha decepcionado, esperaba algo más. Tanta expectación y al final, en parte, solo resultan "graficos pesados de mover", independientemente de la repetición. También opino que estamos como al principio, cuando salieros los anteriores o los más anteriores, con las placas disponibles en el momento costaba de moverlo. De todas formas se han pasado un poco, sobre todo en el CPU Test 2, porque será que obtengo 4,2 fps (hay momentos durante el mismo que me da 0 fps).
Saludos -
he visto tests con la radeon 9700pro, pero y k pasa con la Geforce FX??? la estan dejando de lado
Me pregunto xq no ha hecho ningún test con ella (almenos k yo haya visto)
si digo algun disparate de k no hacen tests con la gf fx no me pegueis :p, estoy de exámenes y casi no tengo tiempo ni para encender el pc:D -
Pues yo opino en cierta parte como nVidia con respecto a este test, creo que no es representativo de ningun juego actual y dudo que lo sea de juegos venideros.
El 3DMark03 esta completamente limitado por la tarjeta gráfica y de hecho hay Durones superando a Athlones XP por llevar una tarjeta gráfica algo mejor. esto es porque el 3DMark es una demo y no lleva nada de IA que es lo que siempre tienen los juegos y es lo que hace trabajar al procesador entre otras cosas, claro.
Hay muchos fans de futuremark que estan diciendo que porqué nos sorprende esto si el 3DMark03 esta pensado para probar las tarjetas gráficas y que no tiene porque depender del micro y tal…, pues si esto fuera cierto, ¿entonces porque han incluido un CPU TEST y un Sound Test?, seguro que no pensaban medir solo tarjeta gráfica si han incluido esos tests.
Además segun nVidia el 3DMark muestra gráficos de juegos venideros, eso es indiscutible, pero usando técnicas del presente/pasado y es por esto que su rendimiento es pésimo. La única técnica "del futuro" que se ha usado ha sido el Pixel Shader 2.0 en el Mother Nature y simplemente por eso lo llaman test Direcx 9.0, absolutemente todo lo demás ha sido de directX 8.0 para abajo.
En cambio Doom3 es OpenGL usando técnicas realmente avanzadas y depuradas al máximo, y encima tiene varios "path" de ejecución lo que asegura el máximo rendimiento en cualquier tarjeta en la que funcione.
Y para más INRI estoy viendo gente que tiene una Audigy 1 y el 3DMark de los Coj... le hace el test de Sonido con 60 Voces, y a mi con una Audigy 2 platinum que sé seguro que soporta más de 64 voces 3D simultaneas no me lo hace, malditos bugs...
Y ya para terminar, unas cuantas impresiones que me parece deberiamos pensar, yo lo lanzo y ya está. Está claro que Futuremark no come del aire, por lo que aqui hay dinero de por medio. Y ahora pensad.
¿Por qué los que tienen una tarjeta DirectX 8.X no pueden ver el Game Test 4 sabiendo que la movida del pixel Shader 2.0 se puede desactivar cuando se use una tarjeta que no lo lleve? ¿habrá metido la mano Micro$oft?¿serán los fabricantes de tarjetas los que tienen prisa por jubilar las tarjetas directX 8.X?... y encima cualquier tarjeta DirectX 8.1 no saca ni la mitad de puntos que la más perruna de directX 9.0.
¿Por qué en los test que se usa Pixel Shader 1.4, si no tienes una tarjeta que lo soporta como las GeForce 4, el 3DMark usa Pixel Shader 1.1 en lugar del 1.3 que sí que lo soportan las GeForce 4?, ¿habrá metido la mano ATI?, ¿o habrá sido Matrox?, en fin misterios de este siglo...
yatá Saludoss
-
Wolf, sí que hay tests de la GeForce FX, el único que he visto está en [Hard]OCP, pasate por su pagina web y miras la review del 3DMark03.
Por si no tienes tiempo de leerlo, te lo digo, La FX gana por poco a la 9700 pro, le saca unos 200 puntos, pero en los feature tests la 9700 pro gana en casi todos los tests y algunos con marcada diferencia.
por cierto, los de [hard]OCP acaban diciendo que no van a usar nunca el 3DMark03 para sus pruebas.
Saludos
-
Bueno, pues yo os voy a resumir mi opinión al respecto en una frase bastante clara:
De momento " Me cago en el 3DMark03…" ya que como han dicho no hay juegos para los que sea necesaria tal potencia de procesamiento gráfico.
Además, sinceramente, me ha dado la impresión que ha pasado lo mismo que lo que pasa ultimamente con la mayoria de las cosas, y es que no se ha depurado excesivamente el producto final.
La calidad gráfica que he visto no justifica para nada, lo lento que se mueve.
En fin, es una opinión más… pero hasta dentro de algún tiempo, al menos yo, paso del 3DMark03, prefiero hacer mis tests con el 3DMark2001SE.
Saludos
-
la cosa segun he leido por ahi es que las ATI usan directx 9.0 y vertex / pixels shaders 2.0 de forma nativa mientras que las nVidia no soportan estas ultimas tecnologias, lo cual explica la diferencia de rendimiento en unas y otras. Ni zorra de estas tecnologias asi que no me pegueis
Como dice Sauron, la GeForce FX, que si soporta estas tecnologias, da un rendmiento igual o superior a la 9700 Pro, con lo cual yo creo que los resultados que estamos teniendo son "aceptables" o "justificables".
Si mañana estuviera la GeForceFX en la calle se sacarian los mismos puntos que con la ATI, y dentro de 2 o 3 semanas nvidia sacaria unos nuevos drivers que subirian el rendimiento a lo bestia como ya nos tienen acostumbrados, y la FX barreria a las ATI. Yo no estoy de acuerdo con eso que dicen por ahi de que nvidia se esta quedando atras con respecto a ATI por esto mismo
Con respecto al benchmark… pues aparte de la velocidad a la que corre me decepciona bastante. Exceptuando la batalla de los aviones, en lo demas veo pocos poligonos y mucho troll asqueroso. La alfa aquella de doom3 tenia mejores graficos que este benchmark de aqui a lima. Se echa de menos algun test mas, se hace repetitivo, casi dan ganas de apagar el monitor y encenderlo al rato solo para ver la puntucion
La cuestion es que esto no deja de ser un 3dmark, la tarjeta sigue corriendo igual de rapida despues de testearla Si puede servir para optimizar y estar entretenido (que por eso nos gustan a la mayoria estas cosas), yo esta mañana sacaba 990 puntos y ahora saco 1260
He opinado
-
¿Pocos poligonos?. Pues 780000 poligonos por frame me parece una cantidad considerable (a 25 fps …)
No he entendido esto:
la cosa segun he leido por ahi es que las ATI usan directx 9.0 y vertex / pixels shaders 2.0 de forma nativa mientras que las nVidia no soportan estas ultimas tecnologias
la GeForce FX, que si soporta estas tecnologias,
¿La FX no es de nVidia?. Es que no se a que te refieres con eso de que las ATI usan …. nativo y las nVidia no. Toda tarjeta compatible con Dx9 usa pixel y vertex 2.0, si pones una tarjeta Dx8 sea de Ati, nVidia, SiS o lo que sea te va a pasar lo mismo.
Por cierto que lo de los shaders lo que hace es que se puedean programar cierta dunciones del juego directamente en el hardware de la grafica.
Sobre lo del rendimiento, la FX ya rinde en esta prueba mas que la Radeon y despues de un alto de 1600 puntos tras actualizar los drivers no creo que nVidia pueda dar muchos saltos como este.
-
¿Pocos poligonos?. Pues 780000 poligonos por frame me parece una cantidad considerable (a 25 fps …)
Digo lo que me parece, en general creo que con tantos poligonos se podia haber hecho algo mas vistoso y espectacular. Aunque probablemente a 2 fps tampoco lo admiro mucho
¿La FX no es de nVidia?. Es que no se a que te refieres con eso de que las ATI usan …. nativo y las nVidia no. Toda tarjeta compatible con Dx9 usa pixel y vertex 2.0, si pones una tarjeta Dx8 sea de Ati, nVidia, SiS o lo que sea te va a pasar lo mismo.
Las ATI de gama alta actuales soportan esas tecnologias, luego el 3dmark se lleva bien con ellas.
La tarjeta de nvidia que soporta esas tecnologias y que esta llamada a pelearse con las 9700 es la FX, y el 3dmark se lleva bien con ella.La causa de las puntuaciones bajas es la ausencia de soporte para esas tecnologias en las tarjetas "bestias" de nvidia de que disponemos ahora, si las FX estuvieran en la calle, 4 de por aqui tuvieran una y postearan resultados superiores a los de las ATI, no habria tantas acusaciones de "tongo" a los de futuremark.
De un foro de por ahi:
From "Catalyst Maker" over at the www.rage3d.com forums:
"Expected 3DMark2003 scores
A few people have asked me why their score is low or if the score they get is right for their system. I cant answer all those individual cases but I want to share some results we observe in our benchmarking labs. (Remember these numbers are directly from ATI)Use these ONLY as a guide and have fun comparing:
System:
P4 - 3.06 GHz i850e
1GB PC 1066
Win XP Pro SP1
CATALYST 3.1Defaults 3DMark settings, CATALYST control panel on performance setting
Radeon 9700 Pro: 4772
Radeon 9700: 4169
Radeon 9500 Pro: 3571
Radeon 9500: 2511
Radeon 9100/8500: 1301
Radeon 9000 Pro: 1135
Radeon 9000: 1008
Radeon 7500: 364
Radeon 7000: 107"Las tarjetas de ATI que no soportan directx 9 y demas son la misma mierda en este benchmark que las nvidia. Mi GF3 da 1264 puntos con menos micro y menos ram, mira cuanto da la 8500. La cuestion es que y como se hace el becnhmark, que ahora mismo aprovecha mas la gama alta de ATI. Si la FX estuviera en la calle seria otra cosa
Sobre lo del rendimiento, la FX ya rinde en esta prueba mas que la Radeon y despues de un alto de 1600 puntos tras actualizar los drivers no creo que nVidia pueda dar muchos saltos como este.
Alguno dará, que con cada nueva version de drivers que han ido sacando la mayoria de las tarjetas han subido 100 - 200 puntos en el 3dmark 2001, y la FX tiene un potencial que solo conocen los que la han creado
Opiné
-
Ahora te entendi y por lo que veo tu te dejas caer del lado nVidia, ¿no?:D
Ten en cuenta que solo la gama alta de ATI funciona con los Dx9, el r300, lo que ocurre es que este despues se ha ido reposicionando, pero en realidad ATI solo tiene un chip que lo soporte, al igual que nVidia, claro que el de esta todavia no esta en la calle.
La verdad es que decir que 3l 3DMArk se lleva bien con las Atis es cuanto menos curioso, si estas tarjetas soportan DX9 lo aprovechan si no no.
De todas formas no todos los test son Dx9.
Pero en lineas generales bastante de acuerdo contigo.
-
pues eso, ke o no me explique o no me entendiste La cosa es esa, las nvidia que compiten con las 9700 no estan en la calle y parece que ATI esta barriendo, pero en realidad las tarjetas inferiores de ATI dan las mismas bajas puntuaciones
-
Puede alguien con una ATI 9700 pro pasar los test sin DX9 a ver que puntuación le da?
pq que quereis que os diga: que una 9700 pro saque el triple de puntuación que una 4800se so refleja la realidad en absoluto…
quizás en el mundo de Gilipuertas (Microsoft DX9) si pero ya veremos el DOOM 3 que me juego un guebo a que sale en OpenGL... (no digo que aqui la 4800 gane a la 9700 ni mucho menos pero ese 3x de diferencia me parece "irreal")
Probablemente salga en OpenGL debido a que la mayoria de las gráficas que hay en el mercado son nVidia y no soportan DX9, y hacerlo para DX9 daria mucha ventaja a ATI... y como dijo John Carmac cuando ATI "filtró" la alpha del DOOM3: Esto lo voy a tener en cuenta en futuras decisiones (que rencoroso el sr. Carmac).
Así que me decanto por OpenGL y si DOOM toma ese camino otros muchos tb lo harán... (juegos con motor del DOOM se verán pocos meses despues de que DOOM salga al mdo. seguro).
-
Sirocco esas reflexiones tuyas sobre el DOOM y el OGL no son correctas, el juego podria ser prefectamente DX8, no todos los juegos que salgan deben ser Dx9.
Seguramente sea OGL porque ID siempre ha programado en OGL y poque esta biblioteca es mas "potente" en lo que a grafcios se refieres y saca mucho mas rendimiento de la tarjeta grafica.
Juegos en OGL hay mhos, muhisimos, quizas no tantos como podria parece, hay que tener en cuenta que OGL solo se utiliza para graficos y no permite controlar dispositivos como ratones, teclados, juego en red, sonido, etc, por este motivo muchos juegos utilizan OGL exclusivamente para los graficos y Dx para los perifericos.
Aunque teneis razon en lo que comentais sobre el 3DMark, si un juego utiliza mas texturas de las que tiene una tarjeta el rendimiento se reducira drasticamente. Por ejemplo si usa 8 texturas y la GF4 puede mover 4 por ciclo frente a las 8 de la 9700, necesitara la mitad de ciclos, sin tener en cuenta que cada ciclo va mas rapido.
-
A mi tb me ha decepcionado muxo. Gráficos que no me asombran y OPTIMIZACION BAJO MINIMOS (a mi parecer) porque no veo nada tan alucinante como para que funcione de manera tan pesima con una GF4 Ti. Otra cosa que me ha dao la risa es que le de casi lo mismo que lo ejecutes con AMD 1200Mhz que con Athlon XP 2200+ ¿Creeis que es razonable? No se… pero creo que la han cagao bien o es que no sabemos apreciar la diferencia con el anterior, algo de eso debe ser
-
Esto es una comparativa: http://www.darkcrow.co.kr/image/tip&tech/3dmark03score/01.gif
Pues si no influye el procesador en el resultado entonces es que realmente en eso han hecho un buen trabajo. Recordemos que antes una MX440 en un P4 a 3Ghz rendia mas que una 4200 en uno a 2ghz (me lo he inventado) por lo que inlfuia muchisimo el procesador en un test de grafica, si consiguen eliminar esto uno puede saber como de buena es su tarjeta independientemente de donde este montada (imposible pero bonito, ¿no?)
-
Si, pero entonces que no lo vendan como "the gamer's benchmark" porque no refleja el rendimiento de un sistema de juegos sino de una grafica…
En mi opinion esta version es la peor de todas, para mi el 2001 ya empezo el declive y este lo culmina. Y sin embargo cada vez es mas famoso y usado...
Salu2
-
Pero se trata de ver la potencia del PC no de la atrjeta gráfico no??? NO PONE DE GAMERS BENCHMARK????? Pues a mi que no me jodan pero un juego va mejor con memoria más rápida, con placa más moderna, con tarjeta de sonido que soporte aceleración por hard, con una tarjeta gráfica más moderna…..
No sé es solo opinin personal... esta claro que debe tener muchos poligonos (ya que lo he visto en los reviews del programa) pero a la vista.... no afectan muxo al resultado final de la imagen. Y es más el nature de esta nueva version no me parece que sea 2 o 3 veces mejor por usar lo PS 2.0 y tener tropocientos mil polígonos mas. -
jejeje Nemes1S te me has adelantao al comentario mientras escribia mi mensaje