Crysis 2
Radeon HD 7970 GHz Edition: 68 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %
–--------------
GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/68)*100 = 147 % = 47 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % faster3DMark 2013 X Firestrike
Radeon HD 7970 GHz Edition: 77 %
GeForce GTX 680: 67 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/77)*100 = 130 % = 30 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/67)*100 = 149 % = 49 % faster3DMark Vantage GPU
Radeon HD 7970 GHz Edition: 76 %
GeForce GTX 680: 81 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/76)*100 = 132 % = 32 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/81)*100 = 124 % = 24 % fasterBattlefield 3
Radeon HD 7970 GHz Edition: 74 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/74)*100 = 135 % = 35 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % fasterFar Cry 3
Radeon HD 7970 GHz Edition: 70 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/70)*100 = 143 % = 43 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterHitman
Radeon HD 7970 GHz Edition: 81 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/81)*100 = 124 % = 24 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterConclusion
GeForce GTX Titan average increase over Radeon HD 7970 GHz Edition: (47 + 30 + 32 + 35 + 43 + 24) / 6 = 35 %
GeForce GTX Titan average increase over GeForce GTX 680: (54 + 49 + 24 + 54 + 37 + 37) / 6 = 42.5 %Fuente: www.xtremesystems.org
Salu2…
Pues menos mal que por lo menos aquí se ponen los porcentajes correctamente, no como he visto por otros lares.
De todas formas hay que tener en cuenta que hay por lo menos un outsider entre los juegos: Hitman.
Es un juego muy escorado hacia AMD por las "optimizaciones" introducidas por el sello "gaming evolved" de AMD, así que habría que descartarlo para una comparativa justa. O por lo menos si se tiene en cuenta algo de este tipo, meter algún juego en la media con "escore" igual de fuerte pero hacia nvidia.
Después de esto, en ese total de pruebas hay dos 3dmark (qué manía con los 3dmark, cuando no representan en absoluto el "estado del arte" en motores de juegos), curiosamente no el 3dmark11 que sería el que daría ese primer dato filtrado del 85% del rendimiento de una GTX 690.
Así que al final el número de juegos visto en esa tabla, y aún suponiendo que no es falsa y que es correctísima en metodología, no mete suficientes juegos como para dar una imagen general fiable de qué se puede esperar de esta tarjeta en rendimiento.
Además que la "deriva" que introduce un juego con "escoraje" hacia un lado en pruebas con pocos juegos usados siempre es mucho más intenso que en un análisis con muchos más juegos y tests tenidos en cuenta.
O sea, que toca esperar de todas formas para hacerse una idea mínimamente cercana a la realidad de uso de esta tarjeta.
PD: De todas formas este rendimiento se encuadra en mis predicciones anteriores (por otro foro) de un rendimiento tope del 50% extra contra una GTX 680, y en algún caso menor, un rango del 35-50%.
PPD: Pensando en el tema de los 80 fps veo una coincidencia que podría dar peso a que sea algo parecido a la cábala que hice antes. Está claro que no se refiere a un monitor de 60 Hz hacerlo funcionar a 80 fps, tampoco puede ser poner un cap de 80 fps al Vsync en un monitor de 120 Hz, porque no tiene demasiado sentido o no es meritorio de destacar.
Pero la relación 1.33 entre 80 fps renderizados y los 60 Hz de una pantalla tiene ciertas propiedades interesantes si se va a usar algún sistema de mezclado de imágenes. Es en realidad una relación de 4 frames renderizados por cada 3 frames mostrados:
Así que el tema quedaría así:
Render1–--------Render2------------Render3-----------Render4
-----------Vsync1-------------Vsync2-------------Vsync3------------
Cada imagen enviada a pantalla encajaría justo como una imagen "intercalada" entre dos de las generadas por la tarjeta, pudiéndose enviar el resutlado de un filtrado de blending o similar entre ambos buffers, tomando como base la primera y agregando la segunda de las imágenes, y así con cada una de las siguientes. Podría dar la sensación de 80 fps al ojo humano usando un monitor de 60 Hz. Además de que no tendría ningún problema de flickering ni tearing por el tema de enviar más imágenes al monitor de las que puede mostrar.
El único coste sería una cierta sobrecarga de proceso en shaders, sobre todo, en la gpu al tener que procesar esa "fusión" entre buffers consecutivos renderizados para enviar a pantalla una imagen. Algo que de todas formas debería ser muy fácilmente realizable por el GK110 con su sobredimensionado hard de shaders, TMUs y ROPs, sin pérdida apreciable de rendimiento. No creo que hubiera problema para implementarlo en otros chips, pero de los de la familia de Kepler, el que iría más sobrado en sus dimensiones técnicas para hacer algo así sería precisamente el GK110.