Cazote a nvidia…. drivers magicos... pillaje... :D
-
Hitmaker
Vamos a pedirle a ATI que te contrate para su promoción de las Radeon
Por los últimos posts en contra de Nvidia (aqui y en meristation) se ve que te gusta muchísimo las ATI.
No digo que no lleves razón, que si es verdad que el marketing es asqueroso pero tanto ATI como NVIDIA hacen lo que sea con tal de ser los primeros y más famosos.
Y ya he dicho que la Radeon 9800 o la 9700 son estupendas pero también lo son las FX. Vale que las ATI son mejores, pero las FX NO son en absoluto una porquería.
Y no defiendo a Nvidia ni a ATI.
Y TODA PERSONA que SOLO se fije en las puntuaciones de un benchmark SINTËTICO para comprar una tarjeta gráfica es que no sabe lo manipulados que están esos resultados. Y mucho menos fiarse de los resultados del 3D Mark 2003 y ni siquiera del 3D Mark 2001.
Los benchmarks de un juego puro y auténtico, según creo NO se pueden manipular.
Y como dice Tassadar y como yo he dicho en otros posts , Nvidia es equivalente a INTEL, ambos dominan el mercado y ambos hacen lo posible por seguir siendolo, incluyendo hacer trampas y confundir con el marketing ya que hay muchisima gente que se lo cree y con eso venden más que es en definitiva lo que se pretende.
ATI y AMD, son más honestos y son los segundos en cuota de mercado.
Por favor no mal-interpreteis lo que digo. lo digo por experiencia de otros posts.
-
Sobre este tema, se dicen varias cosas,
1 - Una de ellas es que es un error de los nuevos drivers y que serán corregidos en breve,
2 - Otros dicen que esos drivers que se usaron no son los oficiales y que actualmente están certificados por microsoft
3 - Y otros dicen que es una venganza de Nvidia contra Futuremark y su alianza con ATI, y quieren demostrar como se pueden manipular fácilmente su nuevo 3D mark 2003 y por lo tanto sería inservible para medir los rendimientos de una manera fiable y segura.
http://www.the-inquirer.com/?article=9511
Hay otras webs más pero no las pongo.
-
SpaceRay, ¿AMD y ATI más honestos? aquí todos van a lo mismo. AMD con su 3200+ que está "un poco" sobreestimado, y ATI que creo que de esto de manipular drivers sabe bastante, me suena algo que pasó con el Quake 3 en la época de las 8500…:rollani:
-
Ya se que ATI y AMD no son santos ni mucho menos, pero según creo son un poquito mejor. Aunque es verdad que ATI también ha modificado sus drivers y el marketing que llevan también es bastante, al igual que AMD.
-
No entiendo la mania que tienen algunos de defender a las compañias cuando se equivocan o nos timan. Señores, las compañias tienen la obligacion de ofrecernos productos 100% terminados, funcionando prefectamente y en cualquier circunstancia y con el rendimiento y estabilidad anunciados. Todo lo que se aleje de eso es criticable, y yo desde lugo lo voy a criticar a muerte, sea Intel, AMD, Ati, nVidia o la que sea.
Pero señores, como es posible que en el 3DMArk 03 cuando cambias la camara de posicion desaparezcan la mitad de los poligonos de la escena, ¿un bug?. ¿Que clase de bug quita solo los poligonos que no vas a ver?. Venga ya no seamos ingenuos que la mayoria aqui sabemos como funciona esto y sabemos de sobra que es mucha casualidad que un bug afecte precisamente para mejorar el rendimiento.
Vosotros creeis que es normal que en Meristation aparezca http://www.meristation.com/sc/noticias/noticia.asp?c=GEN&n=10131 que los Catalyst .4 mejoran el 3DMark, el Quake3, el Serius Sam, Jedi o UT. Que casualidad, mejoran los rendimientos en los juegos que se usan como test, ¿esto es por que los han usado para verificarlo o porque se han optimizado para estos juegos?. Y claro, soluciona los fallos para otros 10 juegos, ¿pero donde se ha visto que unos drivers tengan que solucionar los fallos de un software?.
Señores que nos estan timando, a ver si nos damos cuenta ya.
-
Estoy de acuerdo con las críticas aquí planteadas. Todo es por el ganar cuota de unos u otros. Eso del marketing es la mejor arma para vender un producto, sino preguntárselo a Bill Puertas. Consigue vender la mierda del Windows a empresas publicas y privadas, idem versión soho. Y encima la gente flipa lo bonito que ha comprado.
Me remito a cuando salió el Windows 95 y en la calles de New York la gente esperando desde 2 días antes a las puertas del comercio para comprar el dichoso W'95.
(*) Conozco un caso en Córdoba de una tía que para el día de los enamorados compró en el Corte Inglés el Windows 95 creyendo que era algo como un perfume o algo parecido. No veáis la cara del marido cuando lo vió. Le contestó que aquello para qué servía…La mujer le respondió que era algo muy nuevo y muy de moda. Que lo usase para ir a reuniones de empresa y cosas de esas.
(*) Es verídico.
-
jajaajajajaaj, k weno
ale pepe, te regalo este windows, no se para que sirve, pero ta de moda XDDDD -
Claro, pensaría que eso de 'díselo con flores' estaba ya pasado y ahora la moda es 'díselo con windows'
-
Pakohuelva
Yo no es que defienda a NVidia porque si, y pase lo que pase, pero es que hay cosas y cosas.
Y como tu dices y yo también lo creo , nos estan timando con los benchmarks y con el marketing, es todo un juego por ver quien tiene más potencia o mejor dicho más puntos en ciertos benchmarks.
Y llevas razén en que cuando se publica algo tienen la obligación de que esté 100% acabado y comprobado, pero el mayor ejemplo es el windows, que salió con miles de fallos que luego han ido arreglando.
Claro que los errores son siempre a favor de la empresa o quien lo haga
He visto esto " Un programa de Hacienda tiene un error por el cual el contribuyente renuncia a la devolución"
Claro así Hacienda no tiene que devolver nada
http://www.elmundo.es/elmundo/2003/05/13/economia/1052841817.htmlYo creoq que Nvidia ahora que se ha descubierto que quiere engañar a la gente con los drivers dirá que ha sido un bug de los drivers y sacarán una nueva versión que este corregida.
ATI tampoco se salva de esto porque también ha hecho lo mismo en otras ocasiones.
-
Yo no he dicho que se salve Ati como no se salva AMD con los PR, pero lo de nVidia ya es demasiado, por lo menos los de Ati lo disimulan mas o es mas dificil piyarlos, pero los de nVidia lo hacen en cada revision.
Y de bug nada que son drivers WHQL, osea que sabian perfectamente lo que hacian.
-
-
sobre lo que ha puesto pakohuelva … ejem, eso es un poco bestia xD pero en fin, digan lo que digan, yo estoy a favor de que hagan esas modificaciones en los drivers a costa de ganar rendimiento... yo si tengo en casa una VGA sea cual sea y de la marca que sea, seguro que me alegrara saber que he ganado un 50% de rendimiento a costa de no representar unos poligonos que ni siquiera me havia dado cuenta de que existieran, o cualquier otra cosa que sea apenas inapreciable... ya que los fabricantes de software parece que ultimamente tienen el sistema de otimizacion atrofiado, pues estas cosas no vienen nada mal... pero que quereis que os diga chicos, aun no consigo entender como funciona este bug, no se hasta que punto pueden tener control unos drivers, pero cuando empece a leer creia que havian jugado con las camaras y la distancia de dibujado... y luego ponen que en camara libre hay un cacho de escena que no esta si recortan la distancia de dibujado, puede ser un bug, pero que eso tan concreto desaparezca, joder! eso esta manipuladisimo!! pero ya os digo, viva la ignorancia, si no lo se, no lo noto xD
-
Pues sera un poco bestia pero es asi.
Ademas si te das cuenta ha ido a desaparecer justo el dragon, no la ultima casa, ha desaparecido lo que mas poligonos tiene de toda la escena y lo que mas semueve, es decir, lo mas complejo de calcular y representar, que bug mas inteligente.
Esta claro que si te quitan lo que no se ve no deberia importarnos, pero se empieza quitando lo que no se ve y termina quitandonos lo que ellos piensan que no nos importaria no ver, que ya conocemos como va esto.
Ademas, unos drivers son driver, solamente eso. Lo unico que tienen que hacer es que el SO identifique la tarjeta y funcione correctamente y no ponerse segun la aplicacion a calcular donde esta la camara y elimiar que objetos no se ven, es mas, en este caso ni siquiera lo calcula, como el recorrido de la escena es fijo pues simplemente quitan lo que no se ve.
Estamos entrando en una dinamica muy mala, ahora en vez de optimizarse los juegos se optimizan los drivers. Si unos drivers me van a quitar la mitad de los poligonos que lo hagan en una 4MX para que suba a 100fps en vez de en una 5800 para que suba a 400, asi me ahorro un monton de dinero.
-
Soy muy torpe, pero…..... como es eso del dragon?, eso se nota descaradamente, no? o es que lo quita solo en algunos frames?, aun así, si eliminara el dragon el unos frames determinados, daría el cantazo por el 'flash' que ello supondría. A ver si alguien me explica eso.
-
como es eso del dragon?, eso se nota descaradamente
Pues no lo he visto con mis propios ojos.. pero ya me han dicho dos personas que NO APARECE EL DRAGON y que la tia monta en el aire :rolleyes: :muerto: , vamos un buen camuflaje optico tipo NINJA del Metal Gear…
-
Estamos entrando en una dinamica muy mala, ahora en vez de optimizarse los juegos se optimizan los drivers. Si unos drivers me van a quitar la mitad de los poligonos que lo hagan en una 4MX para que suba a 100fps en vez de en una 5800 para que suba a 400, asi me ahorro un monton de dinero.
¿Y no se puede hacer la prueba? Lo digo porque a lo mejor es así y todo… si el test es el 3DMark2001, y dado que los drivers de nVidia son unificados, ¿no aparecería la trampa en todas las tarjetas?
-
La imagen es la que he puesto antes y vuelvo a poner ahora con enlace corto: http://www.nvchips-fr.com/images/news/madonion/draghotic.jpg
Si se quitara en algunos frames el problema persisistiria puesto que tienes que almecenar la posicion de los frames en los que no se ve aunque no lo representes, aunque te ahorras la representacion y ganas velocidad.
Supongo que lo que haran es que como el trayecto del dragon es unico habran programado que las zonas del dragon que no se ven, las que cubre la parte de alante se eliminan del Z-buffer y ahorras ancho de banda y representacion.
El bug viene dado, no por ocultar los poligonos que no se veen que es lo que querian hacer, si no porque al cambiar la camara el dragon no deberia desaparecer, si no hacer lo mismo, es decir no representarse los ocultos. El problema esta en que no lo han programado, es decir, no calculan los poligonos ocultos y no lo representan, eso es lo que hacen el HyperZ de Ati y su correspondiente de nVidia pero no mejora el rendimiento puesto que tienes que calcular los que no se ve. En este caso lo que han hecho ha sido quitar los poigonos 3, 4, 8, 9, 25 y 53 de una escena porque en el trayecto que tenia no se veian.
Es como si creo una escena en 3D de una ciudad super realista y sumamente compleja pero delante de la camara pongo un plano con 1 poligono que lo tapa todo. Las tecnologias HyperZ deben calcular que la ciudad no se ve y por lo tanto no calcularla, pero si de antemano se que no se van a ver simplemente solo represento el plano. El problema esta cuando quito el plano que es lo que ha pasado aqui.
-
Duncan, el problema es que eso de driver unificado no es cierto, es solo otra movida comercial para que quede mejor.
Tu te descargas un EXE de 40 Mb en el que estan los driver individuales de cada tarjeta y en funcion de la que tengas se te instalan unos u otros, o bien se te instalan todos pero solo utilizas lo de tu tarjeta. Por eso funcionan la mods por software, porque engañas a los drivers a la hora de instalarlos.
Los drivers son solamente los archivos .vxd y un par de dlls y estos con 5 mb van mas que sobrados, lo que pasa es que despues meten archivos para optimizar para cada juego y demas porqueria.
-
señores los driver de nvidia eliminan poligonos de las esuinas de la pantalla y los de ati remitiendome a las palabras de alguien en este foro hace que el dragon del 3dmark desaparezca cual predador en pos de la presa.
Vamos a ver la dinamica actual es conseguir puntos o eso al meno es lo que quieren las empresas el frenesi y los lanzamientos sacan lo peor de cada compañia; pese a todo creo que:
1.-Nvidia nos miente demasiado diciendo que sus 5200FX etc rinden que te cagas cuando un Ti 4200 se come con patatas a todas mennos la 4600 o no recordais que una 4200 en overclocking es casi tan potente como una 4600.
2.-una ati 9000 se come a las 440MX=5200FX=mierda pincha en un pincho
3.-ati tiene un bus de 256bits y nvidia la ha cagado en todos los modelos menos en el 5900FX porque escepto la 5900fx todas llevan bus de 128bits (corregirme si me equivoco)pero vamos si os acordais del tile tecnology de las kyroII lo que se hacia era eso pero con las imagenes que el ojo no ve parece que ati esta pracicando tacticas poco caballerosas.
nadie se salva pero a tenor de las vgas y el nivel de acabado ati aun asi con todo parece ser mejor opcion ya que por lo menos no nos miente cuando nos dice que una 9000 128 ddr es mejor que las 5200 y 440 por que os invito a que pongais el morrowind y me digais como veis el agua en una ati y en una nvidia (no hay color)
conste que tengo una gforce2 y la voy a jubilar por una radeon 9200 o 9700 ya vere pero como no me gustan las aspiradoras ni las mentiras de nvidia yo no paso por el aro y no voy a defender a nvidia que es indefendible y deplorable.
-
pero que manía de defender leches…nvidia es indefendible, vale, nunca creo que diga otra cosa...pero ati tp se queda atrás. al final esto va a ser peor que el fútbol...