UUUoooo NVIDIA admite el pobre rendimiento en directx9 usaando FP32… si si.. PERO..



  • _The question that was on everybody's mind was about NVIDIA's implementation of the DX9 Pixel Shader 2.0 and High Dynamic Range Lighting. NVIDIA's approach to DX9 is different from the 'Red' company's, and not necessarily worse, just different. NVIDIA was quick to point out that there were problems with the DX9 specs in regard to precision, and also that no one really does PS 2.0 in 32-bit precision all the time. Most games use a mixed mode of 16-bit, 24-bit, and 32-bit with PS 2.0.

    Through a great talk given by Chief Technology Scientist, David Kirk, NVIDIA basically claims that if 16-bit precision is good enough for Pixar and Industrial Light and Magic, for use in their movie effects, it's good enough for NVIDIA. There's not much use for 32-bit precision PS 2.0 at this time due to limitations in fabrication and cost, and most notably, games don't require it all that often. The design trade-off is that they made the GeForce FX optimized for mostly FP16, It can do FP32, when needed, but it won't perform very well. Mr. Kirk showed a slide illustrating that with the GeForce FX architecture, its DX9 components have roughly half the processing power as its DX8 components (16Gflps as opposed to 32Gflops, respectively). I know I'm simplifying, but he did point it out, very carefully_

    Sacado de guru3d:

    aqui

    Saludos



  • Espectacular. No hacen lo que dice la especificación y sus argumentos son tan sólidos como:

    • Los juegos usan modo mixto (como no hay 32 bits todo el rato, no se va a notar que colemos 16 bits todo el rato)
    • Si 16 bits le valen a Pixar y a ILM para los efectos de las películas, nos valen a nosotros (léase argumento de colegio "si lo hace él, yo lo hago").
      Y que encima digan sin tapujos que su implementación no es "peor", sino "diferente". ¿Y no se les caerá la cara de vergüenza?


  • NVIDIA was quick to point out that there were problems with the DX9 specs in regard to precision, and also that no one really does PS 2.0 in 32-bit precision all the time. Most games use a mixed mode of 16-bit, 24-bit, and 32-bit with PS 2.0.

    Nvidia dice tener problemas con los PS2.0 en 32 bit. Y dice que no van bien porque no lo han optimizado para esto dado la limitación tecnológica y los costos. Y entonces ¿ como es que las Radeon son 100% compatibles con los PS 2.0 ya sean de 16bit, 24 bit o 32 bit y no tienen problemas ?

    There's not much use for 32-bit precision PS 2.0 at this time due to limitations in fabrication and cost

    Y aunque no se use mucho, se usa y entonces se debería de poner teniendo en cuenta que la competencia SI la lleva

    Y en la página 4 se puede leer

    http://www.guru3d.com/article/article/91/4

    Developer relationships are very important, on one hand to help drive sales, and on the other, there is a need for NVIDIA to do some handholding of the developers. Their technology is different enough that developers do sometimes require that extra effort. NVIDIA is willing to put forth the extra effort to makes games as immersive and entertaining as possible. However, in the immortal words of Mark Rein, you can't develop software for just one brand of video card. You can bet ATI is also making serious attempts at making developers work best with their cards as well.

    O sea que como el hardware de las FX es diferente a lo normal, por lo que necesitan que los desarrolladores hagan un esfuerzo extra para que los juegos vayan bien en las Nvidia, porque si usan programación generalizada y estandar no irán bien.

    Y como dice Mark Rein, no se puede sacar software para una sola marca de gráficas.

    Tanto Nvidia como ATI quieren que los programadores hagan software para sus tarjetas, pero Nvidia se tiene que esforzar más que ATI en conseguir que los optimizen para sus tarjetas debdio a las diferencias y que no es estandar y no cumple con al 100% con las normas, cosa que las ATI si cumplen

    Por lo que es probable que haya más juegos y software que funcionen mejor en las ATI que en las Nvidia, al menos en las FX



  • Las Ati no soportan color de 32 bits en los shaders y las Fx no soportan 24 bits siendo el estandar Dx9 de 24 bits con lo que o trabajan en 16 o trbajan en 32. Si trabajan en 16 se supone que pierden calidad y si trabajan en 32 pierden velocidad.


Accede para responder
 

Has perdido la conexión. Reconectando a Hardlimit.