Respuesta de NVIDIA a todo lo del HALF LIFE y FUTUROS JUEGOS DIRECTX9


  • 0

    "Over the last 24 hours, there has been quite a bit of controversy over comments made by Gabe Newell of Valve at ATIs Shader Day.

    During the entire development of Half Life 2, NVIDIA has had close technical contact with Valve regarding the game. However, Valve has not made us aware of the issues Gabe discussed.

    We're confused as to why Valve chose to use Release. 45 (Rel. 45) - because up to two weeks prior to the Shader Day we had been working closely with Valve to ensure that Release 50 (Rel. 50) provides the best experience possible on NVIDIA hardware.

    Regarding the Half Life2 performance numbers that were published on the web, we believe these performance numbers are invalid because they do not use our Rel. 50 drivers. Engineering efforts on our Rel. 45 drivers stopped months ago in anticipation of Rel. 50. NVIDIA's optimizations for Half Life 2 and other new games are included in our Rel.50 drivers - which reviewers currently have a beta version of today. Rel. 50 is the best driver we've ever built - it includes significant optimizations for the highly-programmable GeForce FX architecture and includes feature and performance benefits for over 100 million NVIDIA GPU customers.

    Pending detailed information from Valve, we are only aware one bug with Rel. 50 and the version of Half Life 2 that we currently have - this is the fog issue that Gabe refered to in his presentation. It is not a cheat or an over optimization. Our current drop of Half Life 2 is more than 2 weeks old. NVIDIA's Rel. 50 driver will be public before the game is available. Since we know that obtaining the best pixel shader performance from the GeForce FX GPUs currently requires some specialized work, our developer technology team works very closely with game developers.

    Part of this is understanding that in many cases promoting PS 1.4 (DirectX to PS 2.0 (DirectX 9) provides no image quality benefit. Sometimes this involves converting 32-bit floating point precision shader operations into 16-bit floating point precision shaders in order to obtain the performance benefit of this mode with no image quality degradation. Our goal is to provide our consumers the best experience possible, and that means games must both look and run great.

    The optimal code path for ATI and NVIDIA GPUs is different - so trying to test them with the same code path will always disadvantage one or the other. The default settings for each game have been chosen by both the developers and NVIDIA in order to produce the best results for our consumers.

    In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DirectX 9 titles, such as Half Life 2.

    We are committed to working with Gabe to fully understand his concerns and with Valve to ensure that 100+ million NVIDIA consumers get the best possible experience with Half Life 2 on NVIDIA hardware"

    TRADUCCION

    "En las últimas 24 horas ha habido un tanto de confusión con respecto a los comentarios que Gabe Newell de Valve hizo en el Shader Day de ATI.

    nVIDIA ha tenido un contacto técnico estrecho con valve durante el desarrollo de Half Life 2. No obstante, Valve no nos ha advertido de los temas que Gabe comentó.

    Estamos confusos en cuanto al porqué de que Valve escogiera usar la versión 45, ya que con dos semanas de antelación al Shader Day habíamos estado trabajando estrechamente con Valve para asegurar que la versión 50 proporcionase la mejor experiencia posible con el hardware de nVIDIA.

    Con relación a los números relativos al rendimiento en Half-Life 2 publicados en la red, creemos que son inválidos, puesto que no usan la revisión 50 de nuestros drivers. Los esfuerzos a nivel de ingeniería con relación a la versión 45 de nuestros drivers llegaron a su fin hace meses para dejar paso a la revisión.

    Las optimizaciones de nVIDIA tanto para Half Life 2 como para otros juegos nuevos están incluídas en versión 50 de nuestros drivers, de los cuales ya tienen en versión beta las webs que se dedican a hacer los tests.

    La versión 50 es el mejor driver que hemos hecho jamás; incluye optimizaciones importantes para la arquitectura altamente programable FX e incluye beneficios tanto en características como en rendimiento para los más de 100 millones de clientes de GPUs de nVIDIA.

    Aún pendientes de información detallada por parte de Valve, tan solo somos conscientes de un error con la revisión 50 y la versión de Half Life 2 de que disponemos: el problema con la niebla a que se refirió Gabe en su presentación. No es ni un fallo ni una optimización extrema. Los Detonator 50 se harán públicos antes de que el juego esté disponible. Ya que conocemos que para obtener el mejor rendimiento con pixel shaders en GPUs GeForce FX se necesita en estos momentos algo de trabajo especializado, nuestro equipo de tecnología trabaja estrechamente con los programadores de juegos.

    Parte de esto significa entender que, en muchos casos, el pasar de PS 1.4 a PS 2.0 no proporciona beneficios en calidad de imagen. A veces esto envuelve el convertir operaciones con shaders que utilicen 32 bits de precisión en coma flotante a shaders con 16 bits de precisión con el fin de obtener beneficios de rendimiento en ese modo sin pérdida de calidad de imagen.

    Nuestro objetivo es proporcionar al usuario la mejor experiencia posible, lo cual significa que los juegos han de verse e ir bien.

    Los code paths óptimo para las GPUs de ati y nVIDIA son diferentes, por lo que tratar de hacer pruebas con ambos utilizando el mismo code path siempre pondrá en desventaja a uno o al otro. Los opciones por defecto para cada juego han sido escogidas tanto por los programadores como por NVIDIA para dar los mejores resultados a nuestros clientes.

    Aparte de nuestros esfuerzos con los programadores, nuestro equipo de drivers ha desarrollado un optimizador automático de shaders de nueva generación que mejora, con mucho, el rendimiento global con pixel shaders de las GeForce FX. Se podrá ver el resultado de estos esfuerzos con el lanzamiento de nuestra revisión 50 de los drivers. También se han incluido muchas otras mejoras, creadas, tanto respuesta a como anticipándonos a la primera hornada de juegos DirectX 9, tales como Half Life 2.

    Estamos dispuestos a trabajar con Gabe para comprender a plenitud sus preocupaciones, y con Valve para asegurar que los más de 100 millones de usuarios de nVIDIA logren la mejor experiencia posible con Half Life 2"

    Estos tratan de marear la perdiz y el parrafo de pasar de 32bits a 16bits de precision porque segun ellos no hay perdida de calidad alguna y asi asegurar un buen rendimiento… PATETICO joder..

    Cuento chino que nos largan... y a juego nuevo directx9.... DRIVERS NUEVOS??? :dormido:



  • 1

    Hitmaker

    ¿ Lo has traducido tú a mano o lo has hecho con un traductor ?

    Yo cuando lo ví pensé en traducirlo todo pero como era mucho no lo hice, solo traduje un poco de lo más importante.

    –--------------------------------------------------

    Sobre lo de Nvidia es verdad que esta respuesta es de pena, y como tú dices parece que marean la perdiz y dicen cosas que no se entienden bien para parecer que la culpa no es de Nvidia y que ellos lo han hecho bien. :confused:

    Si hay engaño ya se va a descubrir porque seguro que alguien lo descubre como ya pasó antes.

    Y sigo diciendo que ATI todavía no ha sacado sus nuevos drivers 3.8 que supuestamente también serán igual de milagrosos que los de Nvidia. Ya veremos

    Me parece una tontería que cada vez que un juego o un benchmark no funcione como se esperaba o que este por debajo de ATI saquen un nuevo driver "optimizado" para ese juego o benchmark.



  • 2

    Los de Ati no van a ser igual de milagrosos por la simple razon de que no lo necesitan.

    Los drivers de ati no dudo de que tambien tengan sus "truquillos", lamentablemente los fabricantes pierden mas tiempo en esto que en hacer buenos productos, perotodavia no se les ha piyado, lo del 3Dmark fue una tonteria comparado con lo de nVidia. Pero los 3.8 no saldran trucados porque aun compitiendo con los trucados de nVidia siguen obteniendo mas rendimiento y no les merece la pena ponerse a nivel de nVidia, que no se a vosotros pero a mi me estan quitando todas las ganas de comprar una nvidia.

    Una compañia que no es capaz de aguantar la segund aposicion tecnologica y se dedica a timar al usuario para mi pierde toda la validez.



  • 3

    Mi opinion sobre esto es la misma que la de todos vosotros… a que viene eso de que hacer un cambio de 32 bits a 16 bits lo hacen para mejorar la ... como lo llaman ellos??? la "experiencia"??? joder, me parece no ya rastrero, si no cutre, es como si para q un coche ande a 150km hora, y no se queme, le quitan el salpicadero y cosas "sobrantes" para que pesando menos, corra mas sin hacer tanto esfuerzo... hombre.. una comparacion tonta, pero es que es tan cutre

    Respecto al tema de drivers para juegos.. ya se vio hace un tiempo en un post de estos.. y creo que si, aunque mejoren algunas cosas, lo que no pueden hacer es que si arranca un juego dx9 realicen tantos cambios, que al final parece que estamos jugando en el "amiga" (y mira que era buena maquina ;)) Vaya, que a estos de Nvidia no les esta saliendo nada bien

    PD, ahora tengo que pillarle una grafica nueva a mi hermano... sabeis en que fabricante estoy pensando?, no creo que quede lugar a dudas.

    Un saludo



  • 4

    ahora tengo que pillarle una grafica nueva a mi hermano… sabeis en que fabricante estoy pensando?, no creo que quede lugar a dudas.

    Pues no, no lo adivino , ¿puede ser S3 ? , ¿será matrox ? ¿o será la que A TI te gusta más ? :D



  • 5

    Me parece que nvidia a gastado a sus ingenieros en la construcción del nforce2 y a descuidado las gráficas verdad. Es que esto de querer abarcar todo no se puede….:risitas:



  • 6

    Spaceray, estaba pensando en una trident… :p

    No, pero vamos, despues de mis comentarios, creo que no va a ser una nvidia, ademas.. en mi firma puedes ver q soy usuario de ATI... y sobre todo.. no te piques joerr¡¡ q es una broma:D

    Saludos



  • 7

    Tengo en mis manos dos autenticos Monstruos. Una "Creative GForce FX 5900 Ultra con 256 Megas" y una "Argos EK Radeon 9800 Pro Gold con 128 Megas". Naturalmente prestadas claro, aunque con una de las dos me quedo seguro. Voy a darlas caña y luego comentare resultados y opiniones. Por cierto cuando he dicho dos monstruos no solo me refiero a potencia sino tambien a tamaño. Si la FX es grande, la Ati con ese pedazo de disipador en emorme.



  • 8

    Publicado originalmente por Holis
    Tengo en mis manos dos autenticos Monstruos. Una "Creative GForce FX 5900 Ultra con 256 Megas" y una "Argos EK Radeon 9800 Pro Gold con 128 Megas". Naturalmente prestadas claro, aunque con una de las dos me quedo seguro. Voy a darlas caña y luego comentare resultados y opiniones. Por cierto cuando he dicho dos monstruos no solo me refiero a potencia sino tambien a tamaño. Si la FX es grande, la Ati con ese pedazo de disipador en emorme.

    PROCURA PROBARLAS EN JUEGOS DIRECTX 9 COMO TOM RAIDER AOD o la beta del halo



  • 9

    Publicado originalmente por Holis
    Tengo en mis manos dos autenticos Monstruos. Una "Creative GForce FX 5900 Ultra con 256 Megas" y una "Argos EK Radeon 9800 Pro Gold con 128 Megas". Naturalmente prestadas claro, aunque con una de las dos me quedo seguro. Voy a darlas caña y luego comentare resultados y opiniones. Por cierto cuando he dicho dos monstruos no solo me refiero a potencia sino tambien a tamaño. Si la FX es grande, la Ati con ese pedazo de disipador en emorme.

    No pierdas el tiempo haciendo pruebas, si te tienes que quedar con alguna de las dos, quedate con la Radeon (te lo dice uno que tiene una 5900 Ultra…).

    saludos



  • 10

    jOK, que tal el bartolo ;) :verguen:

    Hacer caso a jOK :D

    Saludos



  • 11

    Ahora mismo ta @3200+ (reconocido por la placa y por Windows como un 3200+!!!) con 1.675v que en realidad son 1.65v reales, estable como un cabrón. Aún no he tenido tiempo de hacer pruebas serias de OC (tengo las memorias nuevas desde hace media hora) pero mañana lo empezaré a exprimir hasta donde llegue :D… uixx...

    saludos



  • 12

    Pues hay van los resultados y conclusiones:
    PIV 2400 Bus 533 con 1Giga de Ram.
    En el 3DMark 2003 a 1024X768 con opciones por defecto La 9800 Pro: 6310 puntos y la FX5900: 4980 puntos.
    En esas pruebas que hace el 3dMark en la que se nota mucho la diferencia es la prueba de los Troles donde la Nvidia va a una media de 5-8 fps y la ATI 18-20 fps.
    En los juegos con OpenGL van practimamente identicas,vamos que las sobra potencia por un tubo, pero en Direc3D la ATI gana por mucho.
    Los drivers que he utilizado en la ATI son los ultimos Catalyst 3.7, y en la Nvidia he utilizado tres: los 45.23 que son los ultimos WHQL, los 44.67 y los 44.03 tambien WHQL y aqui una anecdota a tener mucho en cuenta. En el Medal Of Honor Allied Assault con los 45.23 se pierden texturas, es decir que aparecen algunos poligonos pero sin textura. Pues nada, pongo los 44.67 y lo mismo. Y yo pienso: ¿sera que los drivers se pegan con los que yo tenia de la GForce 4 TI 4600?. Pues nada meto los 44.03 que son los que vienen con ella y…...... Sorpresa, se soluciona el tema de las texturas. ¿CURIOSO NO?.
    Adivinad con cual de las dos me voy a quedar?. Pues si habeis acertado: La ATI y encima me la han conseguido a precio PVD y sin IVA unos 340 Euros. La Nvidia me sale unos 550 Euros. Es de 256 megas pero para lo que le sirven los 128 megas de mas me da que es un autentico timo.



  • 13

    jodre..como has conseguido al argos de EK a 340 euros ????



  • 14

    Pues un primo de un socio mio es comercial de un negocio del gremio y se la dejadon el Viernes por la tarde hasta el Lunes, que por supuesto no la vuelven a ver porque me la quedo yo y ademas era la ultima que les quedaba. La Nvidia es de otro distribuidor.
    De todas formas hubiese pagado los 399 + IVA que cobran en PVP. Merece la pena.



  • 15

    es que con ese over es normal que supere a la 5900 ultra , rinde un 15 por cien mas que una 9800 pro normal

    Por cierto… ¿el ventilador de la argos no hace algo de ruido?
    pd/ y estube en junio mas de un mes detras de esa tarjeta pero no la terminaban de sacar... me compre la de la firma.. que al final va bastante parecida ;);)



  • 16

    El ventilador yo creo que es como cualquiera de los que llevan las 9800. Lo que es monstruoso es el disipador.



  • 17

    Nvidia dice ahora que el benchamrk este que se ha hecho y que se ha publicado no es válido porque esta hecho con una versión beta del Half Life 2 y que NO es la versión definitiva que va a salir a la venta y que esa beta no esta optimizada y que aún tiene fallos y por esos las FX no van bien. :D

    NVIDIA has been telling GD that the recent benchmarks are using an “unreleased game” and that they hope folks won’t hold any weight into these performance findings.

    GD = Game Developer

    A ver que más tienen que decir para justificar el fallo de los shaders en las FX.



  • 18

    :confused: :confused: :nono:

    Vaya tela¡¡¡



  • 19

    Que raro que solo te de 4900 puntos la version ultra cuando a mi con un xp 2600 me da una 5900 a secas 5391 puntos .
    Bueno ustedes seguir con vuestra guerra de marcas y yo mientras me voy a pegarme unas partiditas al call of duty :D





Has perdido la conexión. Reconectando a Hardlimit.