Cazote a nvidia…. drivers magicos... pillaje... :D
-
-
sobre lo que ha puesto pakohuelva … ejem, eso es un poco bestia xD pero en fin, digan lo que digan, yo estoy a favor de que hagan esas modificaciones en los drivers a costa de ganar rendimiento... yo si tengo en casa una VGA sea cual sea y de la marca que sea, seguro que me alegrara saber que he ganado un 50% de rendimiento a costa de no representar unos poligonos que ni siquiera me havia dado cuenta de que existieran, o cualquier otra cosa que sea apenas inapreciable... ya que los fabricantes de software parece que ultimamente tienen el sistema de otimizacion atrofiado, pues estas cosas no vienen nada mal... pero que quereis que os diga chicos, aun no consigo entender como funciona este bug, no se hasta que punto pueden tener control unos drivers, pero cuando empece a leer creia que havian jugado con las camaras y la distancia de dibujado... y luego ponen que en camara libre hay un cacho de escena que no esta si recortan la distancia de dibujado, puede ser un bug, pero que eso tan concreto desaparezca, joder! eso esta manipuladisimo!! pero ya os digo, viva la ignorancia, si no lo se, no lo noto xD
-
Pues sera un poco bestia pero es asi.
Ademas si te das cuenta ha ido a desaparecer justo el dragon, no la ultima casa, ha desaparecido lo que mas poligonos tiene de toda la escena y lo que mas semueve, es decir, lo mas complejo de calcular y representar, que bug mas inteligente.
Esta claro que si te quitan lo que no se ve no deberia importarnos, pero se empieza quitando lo que no se ve y termina quitandonos lo que ellos piensan que no nos importaria no ver, que ya conocemos como va esto.
Ademas, unos drivers son driver, solamente eso. Lo unico que tienen que hacer es que el SO identifique la tarjeta y funcione correctamente y no ponerse segun la aplicacion a calcular donde esta la camara y elimiar que objetos no se ven, es mas, en este caso ni siquiera lo calcula, como el recorrido de la escena es fijo pues simplemente quitan lo que no se ve.
Estamos entrando en una dinamica muy mala, ahora en vez de optimizarse los juegos se optimizan los drivers. Si unos drivers me van a quitar la mitad de los poligonos que lo hagan en una 4MX para que suba a 100fps en vez de en una 5800 para que suba a 400, asi me ahorro un monton de dinero.
-
Soy muy torpe, pero…..... como es eso del dragon?, eso se nota descaradamente, no? o es que lo quita solo en algunos frames?, aun así, si eliminara el dragon el unos frames determinados, daría el cantazo por el 'flash' que ello supondría. A ver si alguien me explica eso.
-
como es eso del dragon?, eso se nota descaradamente
Pues no lo he visto con mis propios ojos.. pero ya me han dicho dos personas que NO APARECE EL DRAGON y que la tia monta en el aire :rolleyes: :muerto: , vamos un buen camuflaje optico tipo NINJA del Metal Gear…
-
Estamos entrando en una dinamica muy mala, ahora en vez de optimizarse los juegos se optimizan los drivers. Si unos drivers me van a quitar la mitad de los poligonos que lo hagan en una 4MX para que suba a 100fps en vez de en una 5800 para que suba a 400, asi me ahorro un monton de dinero.
¿Y no se puede hacer la prueba? Lo digo porque a lo mejor es así y todo… si el test es el 3DMark2001, y dado que los drivers de nVidia son unificados, ¿no aparecería la trampa en todas las tarjetas?
-
La imagen es la que he puesto antes y vuelvo a poner ahora con enlace corto: http://www.nvchips-fr.com/images/news/madonion/draghotic.jpg
Si se quitara en algunos frames el problema persisistiria puesto que tienes que almecenar la posicion de los frames en los que no se ve aunque no lo representes, aunque te ahorras la representacion y ganas velocidad.
Supongo que lo que haran es que como el trayecto del dragon es unico habran programado que las zonas del dragon que no se ven, las que cubre la parte de alante se eliminan del Z-buffer y ahorras ancho de banda y representacion.
El bug viene dado, no por ocultar los poligonos que no se veen que es lo que querian hacer, si no porque al cambiar la camara el dragon no deberia desaparecer, si no hacer lo mismo, es decir no representarse los ocultos. El problema esta en que no lo han programado, es decir, no calculan los poligonos ocultos y no lo representan, eso es lo que hacen el HyperZ de Ati y su correspondiente de nVidia pero no mejora el rendimiento puesto que tienes que calcular los que no se ve. En este caso lo que han hecho ha sido quitar los poigonos 3, 4, 8, 9, 25 y 53 de una escena porque en el trayecto que tenia no se veian.
Es como si creo una escena en 3D de una ciudad super realista y sumamente compleja pero delante de la camara pongo un plano con 1 poligono que lo tapa todo. Las tecnologias HyperZ deben calcular que la ciudad no se ve y por lo tanto no calcularla, pero si de antemano se que no se van a ver simplemente solo represento el plano. El problema esta cuando quito el plano que es lo que ha pasado aqui.
-
Duncan, el problema es que eso de driver unificado no es cierto, es solo otra movida comercial para que quede mejor.
Tu te descargas un EXE de 40 Mb en el que estan los driver individuales de cada tarjeta y en funcion de la que tengas se te instalan unos u otros, o bien se te instalan todos pero solo utilizas lo de tu tarjeta. Por eso funcionan la mods por software, porque engañas a los drivers a la hora de instalarlos.
Los drivers son solamente los archivos .vxd y un par de dlls y estos con 5 mb van mas que sobrados, lo que pasa es que despues meten archivos para optimizar para cada juego y demas porqueria.
-
señores los driver de nvidia eliminan poligonos de las esuinas de la pantalla y los de ati remitiendome a las palabras de alguien en este foro hace que el dragon del 3dmark desaparezca cual predador en pos de la presa.
Vamos a ver la dinamica actual es conseguir puntos o eso al meno es lo que quieren las empresas el frenesi y los lanzamientos sacan lo peor de cada compañia; pese a todo creo que:
1.-Nvidia nos miente demasiado diciendo que sus 5200FX etc rinden que te cagas cuando un Ti 4200 se come con patatas a todas mennos la 4600 o no recordais que una 4200 en overclocking es casi tan potente como una 4600.
2.-una ati 9000 se come a las 440MX=5200FX=mierda pincha en un pincho
3.-ati tiene un bus de 256bits y nvidia la ha cagado en todos los modelos menos en el 5900FX porque escepto la 5900fx todas llevan bus de 128bits (corregirme si me equivoco)pero vamos si os acordais del tile tecnology de las kyroII lo que se hacia era eso pero con las imagenes que el ojo no ve parece que ati esta pracicando tacticas poco caballerosas.
nadie se salva pero a tenor de las vgas y el nivel de acabado ati aun asi con todo parece ser mejor opcion ya que por lo menos no nos miente cuando nos dice que una 9000 128 ddr es mejor que las 5200 y 440 por que os invito a que pongais el morrowind y me digais como veis el agua en una ati y en una nvidia (no hay color)
conste que tengo una gforce2 y la voy a jubilar por una radeon 9200 o 9700 ya vere pero como no me gustan las aspiradoras ni las mentiras de nvidia yo no paso por el aro y no voy a defender a nvidia que es indefendible y deplorable.
-
pero que manía de defender leches…nvidia es indefendible, vale, nunca creo que diga otra cosa...pero ati tp se queda atrás. al final esto va a ser peor que el fútbol...
-
Efectivamente, esto de nVidia y ATI se parece al fútbol. Podríamos hasta comentarlo. "El equipo de nVidia tiene el balón. La 4600 le pasa el balón a la 5800 Ultra, pero ésta cede ante la presión del HyperZ. Pase en largo hacia la 9700 Pro, ocasión para ATI… ¡GOOOOOOOOL!"
P.S: Pako, gracias. En cuanto me has dado la explicación me he acordado de cuánto ocupaba el directorio temporal de la instalación de los drivers de mi vetusta GeForce. La madre que los parió. O sea, que te bajas 40 megas para instalarte sólo de 5 a 10. Los mato. Es de vergüenza. :verguen:
-
La pena es que no hay nadie que controle esto de los engaños de los drivers por parte de ATI y Nvidia, y que puedan hacer lo que les de la gana.
Por cierto lo del dragón si que es algo muuuy notable, y que te das cuenta a 1km de que falta el dragón. ¿ la magica desaparición del dragón es con los drivers de Nvidia o de ATI? ¿ o con ambos?
Los drivers se tendrían que hacer solamente para controlar la tarjeta gráfica y que todo funcione bien y no para cosas raras y extrañas optimizaciones.
-
Pues lo del dragon creia que era con nVidia pero he leido algo de Ati tambien y ya no se de quien es, pero da lo mismo, Ati ya se lo curro con el QuekeIII que no recuerdo que hacia pero se comia la mitad de los poligonos, en aquel caso fue nvidia la que denuncio el caso.
Los de Sis tambien tienen su peculiaridades como la opcion de quitar las paredes.
-
He encontrado este excelente reportaje explicando la realidad y porque Nvidia puede que NO este engañando en este caso
DETONATOR FX 44.03 : Te sientes engañado ?
Leedlo todo que está muy bien.
Hitmaker, a ver que piensas de esto :sisi:
-
Pues menos mal que nvidia NO nos estaba engañando
http://www.bjorn3d.com/#38086
http://www.hardware.fr/news/lire/23-05-2003/Son de N3D.
Yo creo que con esto queda muy claro la etica de esta empresa.
-
Y la respuesta de Nvidia a esto
"Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did, but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom 3 shows that the GeForce FX 5900 Ultra is by far the fastest graphics on the market today."
""Puesto que NVIDIA no forma parte en el programa beta de FutureMark (un programa que los costes de participar y estar dentro cuesta varios centenares de miles de dólares) no conseguimos una ocasión de trabajar con applicaciones reales de desarrollo de Futuremark para escribir los shaders con una optimización . No sabemos lo que hicieron, pero parece que han intentado intencionalmente crear un panorama que hace que nuestros productos parezcan malos. Esto es obvio puesto que nuestro funcionamiento relativo en juegos como Unreal Tournament 2003 y Doom 3 demuestra que el GeForce FX 5900 ultra es los gráficos en gran medida más rápidos en el mercado hoy."
¿ Y en definitiva es tan importante una puntuación en un único benchmark que es sintético y no refleja la realidad ? Y el que se deje llevar única y exclusivamente por lo que diga el 3D Mark 2003 y decida comprar una tarjeta sólo porque tiene más puntos en este benchmark es una persona que no tiene mucha idea de informática y se deja llevar por lo que le digan.
Si se va a decidir por una tarjeta porque la diferencia en benchmark es de solo 1 o 2 puntos o un 2% me parece una tontería.
¿Acaso nosotros jugamos con benchmarks?
¿ las tarjetas son para los benchmarks o para los juegos?
Si el engaño fuera con juegos reales y disponibles , si que sería motivo de queja, pero según creo los benchmark de juegos NO se pueden trucar o engañar y son fiables (al menos de momento).
Y no defiendo a Nvidia, lo mismo va por ATI que también lo ha hecho.
Me asombra la ignorancia que hay en el mundo y la extrema manipulación de la información y de lo que se dice. ¿ es que la gente no tiene decisión propia?
Y respecto a los benchamrk a 1600x1200 me parece una tontería ya que quisiera ver ¿cuánta gente juega a esa resolución ? ¿ Cuánta gente tiene un buen monitor que pueda ponerse a 1600x1200 a 75 Hz o 85 Hz?
-
3dmark a sacado un parche para que no pasen estas cosas…esperemos:D
Futuremark, creators of the 3DMark03 benchmark, has accused 3D graphics vendor nVidia of cheating on its 3DMark2003 benchmark. According to Futuremark, when it implemented a trivial change to the benchmark, nVidia's performance dropped by almost 25%, while other vendors' performance stayed within the margin of error. The company identified eight areas where nVidia's driver seems to detect benchmark behavior, and then falsely optimize performance.
http://www.futuremark.com/news/?newsarticle=200305/2003052308#200305/2003052308
We have just published a patch 330 for 3DMark03 that defeats the detection mechanisms in the drivers and provides correct results.
Un saludo.
-
Supongo que muchos ya lo habrán leido pero por si había alguna duda es si sería algun bug de los drivers o no, aquí está la respuesta extraida de un e-mail que me ha llegado de FutureMark acerca de la disponibilidad del parche a la versión 330 y además el e-mail venía con un FAQs incluido.
Está es una parte pero es lo que nos interesa por el tema de este post:
Q: Was there something wrong with earlier builds?
A: No. However, we verified that recent NVIDIA drivers detected when 3DMark03
was running and then switched into a special mode, taking control from
3DMark03. This ultimately resulted in incorrect 3DMark03 results and made
performance comparisons between NVIDIA's and other manufacturers'
hardware impossible. Patch 330 changes 3DMark03 code in
trivial way so that these drivers are not able to detect when it is running.
For independent media analysis of the situation, please read… ( y unas webs)Se nota que a los chicos de FutureMark no quieren que se les manche su imagen
-
SpaceRay, yo a ti no te entinedo, no se que mania tienes que defender a nVidia, en este caso, a toda costa.
Vamos a ver, estamos hablando de que una compañia que es consciente de que un programa, en este caso el 3DMArk, que se usa en todos los analisis de rendimiento de tarjetas graficas manipula el programa para que los resultados cambien y aumente el rendimiento de sus productos.
¿No te parece importante?. Pues no se, pero a mi que me engañen falseando unos resultados en unas pruebas me parece bastante importante.
Ademas, que no seamos mas tontos ya, que nVidia siempre ha defendido que ha sido la mas rapida en el 3DMark hasta que ha dejado de serlo, que ha pasado de defenderlo a muerte a decir que no sirve para nada. Eso esta muy bien, un test es perfectamente valido mientras yo sea el mejor, cuando ya no lo sea ese test no es valido.
¿Que el 3DMArk no tiene importancia?. ¿Que lo que importa son los juegos reales?. ¿Y quien te ha dicho a ti que en los juegos como Unreal o Doom no hacen los mismo?. Porque el problema esta en que si esta compañia tiene tan poca etica como para hacer esto en una prueba porque no iba a tenerla para hacerlo en las demas.
Si, encima, miramos la metodologia de los otros test vemos que son exactamente iguales que el 3DMark, se trata de una camara que siempre recorre el mismo camino por lo que es sumamente facil eliminar los objetos que la camara no capta.
Que nos estan timando, que no puede ser que nos ofrezcan drivers optimizados para los juegos, que cuando cambiamos el juego el rendimiento puede ser cualquier cosa.
Volviendo al ejemplo del coche, es como si te compras uno y tu estas supercontento porque por autopista puede ir a 200Kmh pero en carretera nacional no puede pasar de 40, pero como tu siempre vas a ir por autopista, ¿no?.
Repito, no se trata de resultados, se trata de etica, de la etica de esta compañia que ya le gana a Intel y a M$ en sus mejores momentos.
Ahh, y no digo que Ati no lo haga, que seguro que lo hace, pero por lo menos son mas listos o mas sutiles y no se nota.
-
Q cosas…
Veo q aqui la gente no busca una tarjeta rapida y decente, sino la tarjeta rapida y decente de los señores nvidia.
Yo como algun otro por aqui no entiendo a SpaceRay, el posteo sobre las posibles causasq nos da nVIDIA es un tanto absurdo q solo ayuda a seguir engañando al usuario triste y perdido del corte ingles. Antes de hablar leer , y si no quereis leer, no os posicioneis, por el simple hecho de q solo malgastereis la vida de vuestro teclado.
Os leo y veo mucha gente q lee entre lineas. nVIDIA siempre ha hecho lo posible para tener una buena nota en el 3dmark, apoyo a los señores del antiguo madonion, Q ahora dicen q un test sintetico no quiere decir nada? Posiblemente tengan menos importancia de la q intentamos dar, nos basamos en numeros y nos perdemos en ellos. FX5900 mas rapido q ati 9800pro en los test de juegos?Posible y probable, pero q son los test, un bench puro y duro q siguen las mismas pautas q futuremark, simplemente q no tendran las narices de enseñarnos como nvidia o ati se rien de sus test. nVIDIA NO ha optimizado nada, por favor, nvidia baja nivel visual para aumentar fps, no hay q darle mas vueltas, es exactamente lo mismo q ATI hace varios años con quake, como bien ha dicho pakohuelva.
SpaceRay ha escrito esto:
" Si el engaño fuera con juegos reales y disponibles , si que sería motivo de queja, pero según creo los benchmark de juegos NO se pueden trucar o engañar y son fiables (al menos de momento). "
Yo, cuando veo arrancar un UT2003 y veo el logo de nVIDIA en primer plano me dan ganas de llorar, acaso piensas q si nvidia estuviese haciendo lo mismo con su benchmark UT lo denunciaria?
Lo q hace falta son mas desarrolladores independientes, el dinero corrompe y como paradoja el dinero sera lo unico q le salve a nvidia esta vez. No os posicioneis entre marcas y casas, buscar el producto mas adaptado a vosotros, da igual si es nvidia, ati, st o sis, no os van a dar de comer.
Conclusion, nvidia anda comiendo chetos y se hace el cheto mayor del año, ahora esperemos q no campee.