Nvidia Geforce Titan (gk110)
-
Sacado de Xtremesystems:
Por cierto, implementa Boost 2.0, que parece que tiene en cuenta la temperatura de la GPU en lugar de el TDP para subir el voltaje y la frecuencia (Hasta cierto punto claro).
Osea que a estas le pones un bloque de rl, y rinden mas si o si….. Interesante..... :).
Salu2...
-
Me gusta lo que voy viendo, tiene buena pinta y ojalá sea como dice jotole, metiéndole una buena rl que aumentes rendimiento.
Lo que no entiendo es lo de los 80 fps :ugly:Un saludo.
-
Crysis 2
Radeon HD 7970 GHz Edition: 68 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %
–--------------
GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/68)*100 = 147 % = 47 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % faster3DMark 2013 X Firestrike
Radeon HD 7970 GHz Edition: 77 %
GeForce GTX 680: 67 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/77)*100 = 130 % = 30 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/67)*100 = 149 % = 49 % faster3DMark Vantage GPU
Radeon HD 7970 GHz Edition: 76 %
GeForce GTX 680: 81 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/76)*100 = 132 % = 32 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/81)*100 = 124 % = 24 % fasterBattlefield 3
Radeon HD 7970 GHz Edition: 74 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/74)*100 = 135 % = 35 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % fasterFar Cry 3
Radeon HD 7970 GHz Edition: 70 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/70)*100 = 143 % = 43 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterHitman
Radeon HD 7970 GHz Edition: 81 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/81)*100 = 124 % = 24 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterConclusion
GeForce GTX Titan average increase over Radeon HD 7970 GHz Edition: (47 + 30 + 32 + 35 + 43 + 24) / 6 = 35 %
GeForce GTX Titan average increase over GeForce GTX 680: (54 + 49 + 24 + 54 + 37 + 37) / 6 = 42.5 %Fuente: www.xtremesystems.org
Salu2…
-
Crysis 2
Radeon HD 7970 GHz Edition: 68 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %
–--------------
GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/68)*100 = 147 % = 47 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % faster3DMark 2013 X Firestrike
Radeon HD 7970 GHz Edition: 77 %
GeForce GTX 680: 67 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/77)*100 = 130 % = 30 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/67)*100 = 149 % = 49 % faster3DMark Vantage GPU
Radeon HD 7970 GHz Edition: 76 %
GeForce GTX 680: 81 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/76)*100 = 132 % = 32 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/81)*100 = 124 % = 24 % fasterBattlefield 3
Radeon HD 7970 GHz Edition: 74 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/74)*100 = 135 % = 35 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % fasterFar Cry 3
Radeon HD 7970 GHz Edition: 70 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/70)*100 = 143 % = 43 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterHitman
Radeon HD 7970 GHz Edition: 81 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/81)*100 = 124 % = 24 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterConclusion
GeForce GTX Titan average increase over Radeon HD 7970 GHz Edition: (47 + 30 + 32 + 35 + 43 + 24) / 6 = 35 %
GeForce GTX Titan average increase over GeForce GTX 680: (54 + 49 + 24 + 54 + 37 + 37) / 6 = 42.5 %Fuente: www.xtremesystems.org
Salu2…
Pues menos mal que por lo menos aquí se ponen los porcentajes correctamente, no como he visto por otros lares.
De todas formas hay que tener en cuenta que hay por lo menos un outsider entre los juegos: Hitman.
Es un juego muy escorado hacia AMD por las "optimizaciones" introducidas por el sello "gaming evolved" de AMD, así que habría que descartarlo para una comparativa justa. O por lo menos si se tiene en cuenta algo de este tipo, meter algún juego en la media con "escore" igual de fuerte pero hacia nvidia.
Después de esto, en ese total de pruebas hay dos 3dmark (qué manía con los 3dmark, cuando no representan en absoluto el "estado del arte" en motores de juegos), curiosamente no el 3dmark11 que sería el que daría ese primer dato filtrado del 85% del rendimiento de una GTX 690.
Así que al final el número de juegos visto en esa tabla, y aún suponiendo que no es falsa y que es correctísima en metodología, no mete suficientes juegos como para dar una imagen general fiable de qué se puede esperar de esta tarjeta en rendimiento.
Además que la "deriva" que introduce un juego con "escoraje" hacia un lado en pruebas con pocos juegos usados siempre es mucho más intenso que en un análisis con muchos más juegos y tests tenidos en cuenta.
O sea, que toca esperar de todas formas para hacerse una idea mínimamente cercana a la realidad de uso de esta tarjeta.
PD: De todas formas este rendimiento se encuadra en mis predicciones anteriores (por otro foro) de un rendimiento tope del 50% extra contra una GTX 680, y en algún caso menor, un rango del 35-50%.
PPD: Pensando en el tema de los 80 fps veo una coincidencia que podría dar peso a que sea algo parecido a la cábala que hice antes. Está claro que no se refiere a un monitor de 60 Hz hacerlo funcionar a 80 fps, tampoco puede ser poner un cap de 80 fps al Vsync en un monitor de 120 Hz, porque no tiene demasiado sentido o no es meritorio de destacar.
Pero la relación 1.33 entre 80 fps renderizados y los 60 Hz de una pantalla tiene ciertas propiedades interesantes si se va a usar algún sistema de mezclado de imágenes. Es en realidad una relación de 4 frames renderizados por cada 3 frames mostrados:
Así que el tema quedaría así:
Render1–--------Render2------------Render3-----------Render4
-----------Vsync1-------------Vsync2-------------Vsync3------------Cada imagen enviada a pantalla encajaría justo como una imagen "intercalada" entre dos de las generadas por la tarjeta, pudiéndose enviar el resutlado de un filtrado de blending o similar entre ambos buffers, tomando como base la primera y agregando la segunda de las imágenes, y así con cada una de las siguientes. Podría dar la sensación de 80 fps al ojo humano usando un monitor de 60 Hz. Además de que no tendría ningún problema de flickering ni tearing por el tema de enviar más imágenes al monitor de las que puede mostrar.
El único coste sería una cierta sobrecarga de proceso en shaders, sobre todo, en la gpu al tener que procesar esa "fusión" entre buffers consecutivos renderizados para enviar a pantalla una imagen. Algo que de todas formas debería ser muy fácilmente realizable por el GK110 con su sobredimensionado hard de shaders, TMUs y ROPs, sin pérdida apreciable de rendimiento. No creo que hubiera problema para implementarlo en otros chips, pero de los de la familia de Kepler, el que iría más sobrado en sus dimensiones técnicas para hacer algo así sería precisamente el GK110.
-
Eso de los 80 fps no sé a qué leches se refieren, no tiene mucho sentido porque para empezar no hay monitores de 80 fps.
O se refieren a que se podrá poner un límite más bajo que 120 Hz (o 100 Hz, la mayoría de monitores de 120 Hz lo soportan también), para no disparar consumos o lo que sea, o se refieren a algo más exótico.
A ver si va a ser una forma de "forzar" 80 fps en un monitor de 60 Hz, overclock del monitor via tarjeta!!!" jajaja
En serio, me suena o a que es un "fake" de característica, o si es posible, a que quizás se consigan esos 80 FPS con algún método bizarro de pasar 80 fps -> 60 fps ya sea interpolando/mezclando frames o algo del estilo (el ratio sería 1,33X). Evitando el tearing pero haciendo a cambio alguna cosa "rara".
Lo de 80 fps en un monitor que dé más de 60 Hz, simplemente me parece una chuminada sin sentido que no tiene razón de exclusividad alguna (bueno, tampoco lo de "forzar" 80 Hz, pero igual si se hace vía "mezclado" de frames, podría "justificarse" algo esta exclusividad).
Por eso me extraño a mi,yo tengo uno de 75 hz pero de 80 no los conozco,a no ser que sea algo como el adaptable y que deja hasta 80 fps,a ver que sacan al final por que ultimamente tienen otro vsync que llaman suave,aunque da problemas con juegos como dead space 3,se engancha a 30 fps a veces.
Tambien habia pensado que en monitores de 120 hz si no da suficientes FPS ponerlo a 80 fps y mantener mas estables los frames.
Tambien en esa comparativa de juegos esta farcry 3 que aunque va mejor en Nvidia hace un uso alto de supersampling,al igual que Hitman y con eso las AMD quiza esten mas cerca,posiblemente ocurra igual en Sleeping dogs,pero falta por ver en configuraciones y resoluciones para poder jugar que suele cambiar algo la cosa.
saludos
-
Por eso me extraño a mi,yo tengo uno de 75 hz pero de 80 no los conozco,a no ser que sea algo como el adaptable y que deja hasta 80 fps,a ver que sacan al final por que ultimamente tienen otro vsync que llaman suave,aunque da problemas con juegos como dead space 3,se engancha a 30 fps a veces.
Tambien habia pensado que en monitores de 120 hz si no da suficientes FPS ponerlo a 80 fps y mantener mas estables los frames.
Tambien en esa comparativa de juegos esta farcry 3 que aunque va mejor en Nvidia hace un uso alto de supersampling,al igual que Hitman y con eso las AMD quiza esten mas cerca,posiblemente ocurra igual en Sleeping dogs,pero falta por ver en configuraciones y resoluciones para poder jugar que suele cambiar algo la cosa.
saludos
No, si Far Cry 3 precisamente es uno de los pocos títulos "gaming evolved" que no tiene supersampling sino MSAA como método principal de AA en su panel de control.
Lo que sí puede tener es supersampling en texturas transparentes, eso sí podría ser posible porque además a este juego le viene que ni al pelo, pero las opciones que AMD ha "metido" son técnicas de Ambient Oclussion y similares.
Los casos de Hitman, Sleeping Dogs y Sniper Elite son distintos, porque además de introducir un SSAA, que de por sí es muy costoso (para todas las gráficas, menos en las AMD por ancho de banda pero costoso al fin y al cabo), meten como "añadido" MLAA o similares via GPGPU e incluso creo que alguno de estos casos también MSAA.
Es algo absurdo porque una vez usado SSAA no debería meterse ese tipo de añadidos extra, pero todo es para justificar un rendimiento en "todo al máximo" que favorezca a gráficas con gran ancho de banda, aunque se estropee el rendimiento totalmente.
A mi jamás se me ocurriría usar simultáneamente SSAA+MSAA+MLAA, porque es absurdo.
-
Bueno,pues realmente no sé si esa tabla filtrada será real o no,o si lo es,con que drivers.Porque hasta última hora de la tarde de ayer,no salieron los drivers que dán soporte a TITAN.Es mas,muchos reviewers,han tenido los samples de pisapapeles todo el fin de semana por este motivo.También es cierto que se podian utilizar drivers "adaptados" pero logicamente,no es lo mismo.
No obstante,las filtraciones que me están llegando,no són desde luego las que parecían en un principio.Estariamos hablando de una gráfica entorno al 40-50% mas potente que la GTX 680.Depende de lo que se pase evidentemente,y eso sí,al parecer incluso mas silenciosa.
Si realmente rinde eso,que no está nada mal tampoco,no estariamos desde luego ante una come dual,pero siempre podemos pensar que Nvidia ha sido muy conservadora con los cloks,por el tema del TPD y demás,y pueden ocear bastante bien y compensar por ese lado.Pero también hay que ver lo dependiente de CPU que es,ya sabemos que el 99% de reviews són con equipos de stock,si realmente empieza a merecer la pena un PCI 3.0 etc..yo como siempre,a pesar de las reviews,no daré una opinión hasta tenerla en casa y ver realmente lo que dá de si..
Un saludo.
-
No, si Far Cry 3 precisamente es uno de los pocos títulos "gaming evolved" que no tiene supersampling sino MSAA como método principal de AA en su panel de control.
Lo que sí puede tener es supersampling en texturas transparentes, eso sí podría ser posible porque además a este juego le viene que ni al pelo, pero las opciones que AMD ha "metido" son técnicas de Ambient Oclussion y similares.
Los casos de Hitman, Sleeping Dogs y Sniper Elite son distintos, porque además de introducir un SSAA, que de por sí es muy costoso (para todas las gráficas, menos en las AMD por ancho de banda pero costoso al fin y al cabo), meten como "añadido" MLAA o similares via GPGPU e incluso creo que alguno de estos casos también MSAA.
Es algo absurdo porque una vez usado SSAA no debería meterse ese tipo de añadidos extra, pero todo es para justificar un rendimiento en "todo al máximo" que favorezca a gráficas con gran ancho de banda, aunque se estropee el rendimiento totalmente.
A mi jamás se me ocurriría usar simultáneamente SSAA+MSAA+MLAA, porque es absurdo.
Creia que farcry 3 tenia SSAA,pero era raro ya que permite 8x,pero al final en la mayoria de juegos aunque tengan SSAA hay que poner configuraciones para jugar similares tanto en Nvidia como AMD,incluso Sleeping dogs a mi me gusta mas con SSAA en alto que en extremo,en extremo tiene mucho reflejo y lo veo algo exagerado.
Lo del GPGPU la historia se repite ahora el nuevo 3dmark que graficamente no me parece nada del otro mundo para lo que pide,test cortisimos y muy raros,creo que usan GPGPU,ultimamente parece que se hace mas de cara al resultado para quedar por delante y no se cuida lo mas importante que es la jugabilidad,por que en ese mismo 3dmark he visto alguna 7970 con un MS importante,pone la ventana de los FPS que da durante el test y se ve demasiado pico,con kepler va mas plano.
saludos
-
Bueno,pues realmente no sé si esa tabla filtrada será real o no,o si lo es,con que drivers.Porque hasta última hora de la tarde de ayer,no salieron los drivers que dán soporte a TITAN.Es mas,muchos reviewers,han tenido los samples de pisapapeles todo el fin de semana por este motivo.También es cierto que se podian utilizar drivers "adaptados" pero logicamente,no es lo mismo.
No obstante,las filtraciones que me están llegando,no són desde luego las que parecían en un principio.Estariamos hablando de una gráfica entorno al 40-50% mas potente que la GTX 680.Depende de lo que se pase evidentemente,y eso sí,al parecer incluso mas silenciosa.
Si realmente rinde eso,que no está nada mal tampoco,no estariamos desde luego ante una come dual,pero siempre podemos pensar que Nvidia ha sido muy conservadora con los cloks,por el tema del TPD y demás,y pueden ocear bastante bien y compensar por ese lado.Pero también hay que ver lo dependiente de CPU que es,ya sabemos que el 99% de reviews són con equipos de stock,si realmente empieza a merecer la pena un PCI 3.0 etc..yo como siempre,a pesar de las reviews,no daré una opinión hasta tenerla en casa y ver realmente lo que dá de si..
Un saludo.
Supongo que esos drivers serán los recién sacados WHQL, que la única mejora que tienen es un irrisorio 5% en Crysis 3. Vamos, si no es por la Titan no veo razón para que hubiera salido este WHQL. Es que con la historia del fallo de seguridad que encontraron en el driver en Enero y esto, llevan 3 drivers WHQL en menos de 2 meses, cuando normalmente no suele haber más que un driver WHQL por mes, y gracias si tal.
La gente es la hostia y se hace hypes solitos sin ayuda de nadie, ¿en qué cabeza cabe que se duplique el rendimiento en 3D entre un chip top de una generación vs el performance de la misma?
Porque eso es el origen del GK104 y el GK110, aunque el último pueda tener optimizaciones y mejoras por este tiempo extra, es de la misma generación y usa el mismo proceso de fabricación. Si ya es raro que se consigan mejoras así de grandes (de ser ciertos estos datos) entre un top y un chip performance.
Creo que el chip cumple sobradamente, precio totalmente aparte y que aún queda por comprobar (que de todas formas, será muy caro). Ahora que algunos se imaginaban historias, tanto positivas como negativas, alguna gente diciendo que si más de 1000€ o bastante más incluso (lo dudo), otros que si se come a una GTX 690 (ja), etc.
La historia de siempre en cada lanzamiento.
Por cierto ELP3, ¿no te irás a pillar alguna de estas Titan para probar, verdad? XD
Sé que igual estás pasota en estos temas ya, pero sería bueno saber experiencias si tal, pero sin agobios.
Creia que farcry 3 tenia SSAA,pero era raro ya que permite 8x,pero al final en la mayoria de juegos aunque tengan SSAA hay que poner configuraciones para jugar similares tanto en Nvidia como AMD,incluso Sleeping dogs a mi me gusta mas con SSAA en alto que en extremo,en extremo tiene mucho reflejo y lo veo algo exagerado.
Lo del GPGPU la historia se repite ahora el nuevo 3dmark que graficamente no me parece nada del otro mundo para lo que pide,test cortisimos y muy raros,creo que usan GPGPU,ultimamente parece que se hace mas de cara al resultado para quedar por delante y no se cuida lo mas importante que es la jugabilidad,por que en ese mismo 3dmark he visto alguna 7970 con un MS importante,pone la ventana de los FPS que da durante el test y se ve demasiado pico,con kepler va mas plano.
saludos
Permite 8x pero por MSAA. De todas formas en este juego el AA es bastante caro, así que igual de ahí viene la confusión (y tiene sentido que sea caro con tanta "geometría" en pantalla, sin contar el hecho de cómo gestione las texturas transparentes).
El SSAA en extremo no debería dar ningún tipo de cambio como el que dices, lo que pasa es que me da que en Sleeping Dogs la opción que controla el SSAA también activa otros filtros (de postproceso via GPGPU), si el SSAA fuera una opción que se controlara de forma "pura" esto no te pasaba.
El SSAA es el AA "tonto" o "bruto", porque de hecho fue la primera técnica de AA usada en gráficas 3D para juegos, pero es muy cara porque hace un sampleo total de X píxeles por cada uno en pantalla, y no aplica ningún tipo de algoritmo inteligente para detectar si se debe aplicar o no (como el MSAA en los bordes, por ejemplo, o los filtros de postproceso como FXAA/MLAA) y se usa en todo pixel pintado en pantalla, incluido el interior de los triángulos (el anisotrópico se "parece" al SSAA en este punto).
La combinación de MSAA+Aniso es la combinación de técnicas inteligentes que intentan conseguir resultados similares al uso de SSAA, y por lo menos en el caso del aniso lo consiguen y de hecho lo mejoran, el MSAA se encuentra con el problema de los motores de renderizado "deferred" actuales que le complican la vida, que si no también estaría compitiendo muy bien contra el SSAA.
El único juego donde veo beneficios reales de uso del SSAA es en SniperV2, donde el sampleo de píxeles extra aumenta el detalle de los objetos lejanos o pequeños mostrados en pantalla, lo cual en un juego de francotiradores pinta mucho como calidad y mejora de la jugabilidade. El MSAA no puede superar el sampleo de X píxeles reales que hace el SSAA.
Saludos.
–-----------------
Las 3 de la tarde, así que supuestamente se liberan los NDAs a partir de ahora:
http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1
Pues vaya mierda, de momento son previews, y en guru3d se dice que hasta el juevesno hay review oficial por su parte. Se ve que cobra base el rumor de necesidad de pasar las pruebas con nuevo firm o driver por el tema del boost o lo que fuera que interfiriera para las reviews originalmente pensadas para "ayer".
-
Ya han sacado este mini clip los de Nvidia parece un anuncio de cuchillas de afeitar :troll:
-
Joder, qué fuerte, lo del OC del monitor iba en serio… XD.
Esto es peligrosillo, a ver qué hace la gente, veo despunte de ventas de monitores un mes después de Titan, jajaja (ESPERO que esta característica pueda ser usada por todos los usuarios de nvidia, o como mínimo los de kepler, no tiene mucho sentido vincularla sólo a Titan).
Sobre la tarjeta, a falta de reviews, sus características que más me han llamado:
1.- Se mantiene plenamente funcional la parte de unidades de cálculo de DP, simplemente tienes que elegir en el panel de control si quieres tener esta parte de la funcionalidad a plena capacidad (1/3 de las operaciones en SP) o si lo dejas como viene (1/24 de las operaciones de SP, como en el GK104). También mencionar que si quieres "todo el bicho" encendido se va a la mierda el boost, se deshabilita para "limitar" consumos. Lo que igual hasta le gusta a más de uno.
2.- Se soporta de nuevo el cambio de voltaje por soft. Todo depende del voltaje que define como tope cada fabricante, pero en principio nvidia da carta blanca a estos para definirlo (supongo que con un límite). En anandtech parecen haber jugado con él con valores de 1,2V por lo menos.
3.- La gráfica viene con un voltaje máximo con el boost que me ha llamado la atención, por alto. 1,1625V, un paso por debajo del máximo voltaje en las GK104.
4.- Curioso que en el PCB se vea marcado el lugar para meter OTRO conector de 8 pines para alimentación, en posición muy distinta a lo de los ya existentes. A saber, pero desde luego curioso es.
5.- El boost controlado principalmente por temperatura más que por consumo, dado que lleva conectores de sobra para superar con mucho los 250w de TDP, y que el boost está más limitado por la temperatura que otra cosa, todo pinta a un potencial de OC importante, o por lo menos los mimbres están ahí. En anandtech hablan de velocidades de boost (no "oficiales", ya sabemos cómo va eso) de casi 1GHz.
O sea, que toqueteando cosas en un lado y otro, subiendo TDPs y límites de temperatura, con curvas de ventiladores más voltajes y conectores de alimentación muy por encima del límite de TDP (2x8 pines = 300W más los 75/150W de la ranura PCI-e), tiene pinta de poder conseguir buenos OCs.
A seguir "rateando" por la red datos, pero vamos, reviews va a ser que hasta dentro de uno o dos días no va a poder ser.
-
Supongo que esos drivers serán los recién sacados WHQL, que la única mejora que tienen es un irrisorio 5% en Crysis 3. Vamos, si no es por la Titan no veo razón para que hubiera salido este WHQL. Es que con la historia del fallo de seguridad que encontraron en el driver en Enero y esto, llevan 3 drivers WHQL en menos de 2 meses, cuando normalmente no suele haber más que un driver WHQL por mes, y gracias si tal.
La gente es la hostia y se hace hypes solitos sin ayuda de nadie, ¿en qué cabeza cabe que se duplique el rendimiento en 3D entre un chip top de una generación vs el performance de la misma?
Porque eso es el origen del GK104 y el GK110, aunque el último pueda tener optimizaciones y mejoras por este tiempo extra, es de la misma generación y usa el mismo proceso de fabricación. Si ya es raro que se consigan mejoras así de grandes (de ser ciertos estos datos) entre un top y un chip performance.
Creo que el chip cumple sobradamente, precio totalmente aparte y que aún queda por comprobar (que de todas formas, será muy caro). Ahora que algunos se imaginaban historias, tanto positivas como negativas, alguna gente diciendo que si más de 1000€ o bastante más incluso (lo dudo), otros que si se come a una GTX 690 (ja), etc.
La historia de siempre en cada lanzamiento.
Por cierto ELP3, ¿no te irás a pillar alguna de estas Titan para probar, verdad? XD
Sé que igual estás pasota en estos temas ya, pero sería bueno saber experiencias si tal, pero sin agobios.
Saludos.
Las 3 de la tarde, así que supuestamente se liberan los NDAs a partir de ahora:
http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1
Pues vaya mierda, de momento son previews, y en guru3d se dice que hasta el juevesno hay review oficial por su parte. Se ve que cobra base el rumor de necesidad de pasar las pruebas con nuevo firm o driver por el tema del boost o lo que fuera que interfiriera para las reviews originalmente pensadas para "ayer".
Sí,me refiero a los whql.Que llevan el ini. de TITAN,los anteriores drivers no lo llevaban y por lo tanto no funcionaban.
No obstante,efectivamente parece que hay un lio con el boost,de momento no funciona el boost 2.0,no se sabe muy bien si por drivers o por firm.Como Nvidia en los lanzamientos,pone drivers beta via ftp cada vez que lo vé oportuno,es posible que ni los whql salidos ayer,sean los definitivos para estas gráficas.
En cuanto al rendimiento,bueno,siempre y cuando sea un 50% y ampliable mediante OC,yo lo veo bien…pero si solo es un 40% y encima,valiendo el doble,no hay excusa..pero bueno,ya veremos,a mí me dicen que tiene un grandísimo rendimiento pero sin ser la "revolución" que todo el mundo esperaba mediante hypie,fake o lo que sea..
Y sí,me voy a hacer con 3 para "prejubiliar" a mis 4 GTX 680...mi pantalla de 30" lo agradecerá a buen seguro..;)
Un saludo.
P.D.Por cierto,al llevar retraso el lanzamiento,no se levanta NDA hasta el dia 21.
-
Y sí,me voy a hacer con 3 para "prejubiliar" a mis 4 GTX 680…mi pantalla de 30" lo agradecerá a buen seguro.
No necesitaran gente en tu curro por casualidad no? :ugly::ugly: Tienes 1 monitor de 30" o 3? XD
-
Y si no quieres las 680 yo puedo ayudarte a quitar carga XP
P.D
Si las quitas mandame un MP antes por si acaso
-
Sí,me refiero a los whql.Que llevan el ini. de TITAN,los anteriores drivers no lo llevaban y por lo tanto no funcionaban.
No obstante,efectivamente parece que hay un lio con el boost,de momento no funciona el boost 2.0,no se sabe muy bien si por drivers o por firm.Como Nvidia en los lanzamientos,pone drivers beta via ftp cada vez que lo vé oportuno,es posible que ni los whql salidos ayer,sean los definitivos para estas gráficas.
En cuanto al rendimiento,bueno,siempre y cuando sea un 50% y ampliable mediante OC,yo lo veo bien…pero si solo es un 40% y encima,valiendo el doble,no hay excusa..pero bueno,ya veremos,a mí me dicen que tiene un grandísimo rendimiento pero sin ser la "revolución" que todo el mundo esperaba mediante hypie,fake o lo que sea..
Y sí,me voy a hacer con 3 para "prejubiliar" a mis 4 GTX 680…mi pantalla de 30" lo agradecerá a buen seguro..;)
Un saludo.
P.D.Por cierto,al llevar retraso el lanzamiento,no se levanta NDA hasta el dia 21.
Jajaja, qué cabrón (con todo el cariño y respeto del mundo, eso sí… XD). Dime donde vives que tengo por aquí un pasamontañas y unas Titan que agenciarme, jejeje.
Yo creo que un 40% de media está muy bien, porque hombre, esos saltos no los pegan las top frente a las performances casi nunca. Otro asunto es el precio, que es una locura, como todo en esta generación.
Ya he visto el precio "oficial" aquí en Europa, que lo han puesto por Guru3D:
Aaaaand STOP
And that's where this article ends, sorry! Now we'll share the manufacturer suggested retail prices.
EUR 800 Ex VAT
GBP 827 Inc. VAT
USD 999 Inc. VATOnce we can unleash the benchmark test sessions (on Thursday), you'll learn more about the performance figures of this product.
Until later.
Está básicamente en lo dicho en el comienzo (quizás era un poco irreal pensar que sería más barata que la GTX 690, son productos muy distintos y creo que sabes por donde voy cuando te digo que van realmente a mercados/clientes distintos), es muy alto, disparatado, y básicamente sigue la tónica de esta generación.
esos 800€ sin IVA aquí se transforman en unos 970€, gracias al IVA putrefacto que nos toca en España. O sea, menos que las hypes del momento (que decían de 1000 para arriba por lo menos), pero mucha pasta para lo que es.
Y sí, los NDAs no se "liberan", o mejor dicho sólo parcialmente, porque les dejan hablar y mostrar cositas de la tarjeta pero no los datos de rendimiento, que para esos como dices hasta el 21 nada (supongo que a las 3 de la tarde, como hoy).
El precio real que debería tener esta gráfica, uno "razonable" para ambas partes, es el de 500€ como tope, pero es que si nos ponemos a ajustar, TODAS bajan y un buen pico. Pero ésta la que más sin duda, vamos :ffu:.
Aunque técnicamente…. joer lo que promete. Además han tenido la "deferencia" de no castrar en absoluto la parte de DP que tanto se decía que vendría muy castrada, lo cual puede transformar a esta gráfica, con el resto de mejoras en GPGPU, en una alternativa razonable para profesionales que no requieran los extras de las Tesla (CRC en memoria y demás historias).
-
No necesitaran gente en tu curro por casualidad no? :ugly::ugly: Tienes 1 monitor de 30" o 3? XD
Bueno,la verdad es que tengo unos 7 monitores..:mudo:3x1080p surround,1200p y demás..pero el principal,es un Dell 3011…3 de esos es una burrada y no caben en ningún sitio...pero la calidad de este,aunque sea uno solo,no la dán los otros ni de coña..jeje
Y si no quieres las 680 yo puedo ayudarte a quitar carga XP
P.D
Si las quitas mandame un MP antes por si acaso
Por supuesto..jeje pasando por caja,si la moderación-administración lo permite,así lo haré..
Jajaja, qué cabrón (con todo el cariño y respeto del mundo, eso sí… XD). Dime donde vives que tengo por aquí un pasamontañas y unas Titan que agenciarme, jejeje.
Yo creo que un 40% de media está muy bien, porque hombre, esos saltos no los pegan las top frente a las performances casi nunca. Otro asunto es el precio, que es una locura, como todo en esta generación.
Ya he visto el precio "oficial" aquí en Europa, que lo han puesto por Guru3D:
Está básicamente en lo dicho en el comienzo (quizás era un poco irreal pensar que sería más barata que la GTX 690, son productos muy distintos y creo que sabes por donde voy cuando te digo que van realmente a mercados/clientes distintos), es muy alto, disparatado, y básicamente sigue la tónica de esta generación.
esos 800€ sin IVA aquí se transforman en unos 970€, gracias al IVA putrefacto que nos toca en España. O sea, menos que las hypes del momento (que decían de 1000 para arriba por lo menos), pero mucha pasta para lo que es.
Y sí, los NDAs no se "liberan", o mejor dicho sólo parcialmente, porque les dejan hablar y mostrar cositas de la tarjeta pero no los datos de rendimiento, que para esos como dices hasta el 21 nada (supongo que a las 3 de la tarde, como hoy).
El precio real que debería tener esta gráfica, uno "razonable" para ambas partes, es el de 500€ como tope, pero es que si nos ponemos a ajustar, TODAS bajan y un buen pico. Pero ésta la que más sin duda, vamos :ffu:.
Aunque técnicamente.... joer lo que promete. Además han tenido la "deferencia" de no castrar en absoluto la parte de DP que tanto se decía que vendría muy castrada, lo cual puede transformar a esta gráfica, con el resto de mejoras en GPGPU, en una alternativa razonable para profesionales que no requieran los extras de las Tesla (CRC en memoria y demás historias).
Vamos a ver wendigo…vamos a ver...yo creo que aún esta muy verde de firm y de drivers...creo que es posible ese 50% de mejora..más,si ocea lo que parece...veremos,aunque de momento,parece que nos quedamos sobre el 40% pero depende de muchas cosas..a mí por ejemplo,mi fuente me dice que vá el boost a 875MHZ,y otros reportan casi el GHZ..quizás de ahí el redimiento que me remite..lo del precio,mejor dejarlo porque no tiene ni pies ni cabeza,pero que vamos a hacer..esto es lo que hay,y que como digo,comenzó allá por Diciembre 2011.
-
Aqui la prueban en una especie de HTPC y dicen que aunque suena algo es mas silenciosa que una 680 y que rinde muy bien para ser una monogpu,en una caja mejor seguro que mantendra mejor temperatura y si el OC va a depender de la temperatura puede subir bien.
AnandTech - High-End Meets Small Form Factor: GeForce Titan in Falcon Northwest's Tiki
A mi esto de la titan me esta pareciendo un poco al lanzamiento de la 480.al principio mucho hype despues mucha critica y al final a pesar de calientes no eran tan malas como parecia,eso si deberian sacar alguna version mas recortaada con menos vram,ponerlas a un precio mas asequible.
Permite 8x pero por MSAA. De todas formas en este juego el AA es bastante caro, así que igual de ahí viene la confusión (y tiene sentido que sea caro con tanta "geometría" en pantalla, sin contar el hecho de cómo gestione las texturas transparentes).
El SSAA en extremo no debería dar ningún tipo de cambio como el que dices, lo que pasa es que me da que en Sleeping Dogs la opción que controla el SSAA también activa otros filtros (de postproceso via GPGPU), si el SSAA fuera una opción que se controlara de forma "pura" esto no te pasaba.
El SSAA es el AA "tonto" o "bruto", porque de hecho fue la primera técnica de AA usada en gráficas 3D para juegos, pero es muy cara porque hace un sampleo total de X píxeles por cada uno en pantalla, y no aplica ningún tipo de algoritmo inteligente para detectar si se debe aplicar o no (como el MSAA en los bordes, por ejemplo, o los filtros de postproceso como FXAA/MLAA) y se usa en todo pixel pintado en pantalla, incluido el interior de los triángulos (el anisotrópico se "parece" al SSAA en este punto).
La combinación de MSAA+Aniso es la combinación de técnicas inteligentes que intentan conseguir resultados similares al uso de SSAA, y por lo menos en el caso del aniso lo consiguen y de hecho lo mejoran, el MSAA se encuentra con el problema de los motores de renderizado "deferred" actuales que le complican la vida, que si no también estaría compitiendo muy bien contra el SSAA.
El único juego donde veo beneficios reales de uso del SSAA es en SniperV2, donde el sampleo de píxeles extra aumenta el detalle de los objetos lejanos o pequeños mostrados en pantalla, lo cual en un juego de francotiradores pinta mucho como calidad y mejora de la jugabilidade. El MSAA no puede superar el sampleo de X píxeles reales que hace el SSAA.
Saludos.
".
Si que deben hacer una mezcla entre SSAA y otros filtros y lo que no me gusta es que quedan como con muchos reflejos,en Sleeping dogs de noche y conduciendo la carretera brilla demasiado y no se ve bien,mas con lluvia,el Hitman tambien usa muchos reflejos aunque no influye tanto ya que es un juego mas pausado de sigilo y Farcry 3 igual tambien tiene muchos reflejos,se ven bien pero me gusta mas que no tengan tantisimo reflejo,como con mucho brillo,por eso en Sleeping dogs prefiero Alto antes que extremo y en alto todavia tiene bastante brillo y reflejos,aunque en extremo tampoco podria jugar a 60 fps pues pide mucho.
Saludos
-
Vamos a ver wendigo…vamos a ver...yo creo que aún esta muy verde de firm y de drivers...creo que es posible ese 50% de mejora..más,si ocea lo que parece...veremos,aunque de momento,parece que nos quedamos sobre el 40% pero depende de muchas cosas..a mí por ejemplo,mi fuente me dice que vá el boost a 875MHZ,y otros reportan casi el GHZ..quizás de ahí el redimiento que me remite..lo del precio,mejor dejarlo porque no tiene ni pies ni cabeza,pero que vamos a hacer..esto es lo que hay,y que como digo,comenzó ayá por Diciembre 2011.
El 50% e incluso más es posible, eso no lo niego, pero no de media o mejor dicho, NO se debe esperar que en TODA situación.
Hay unos hechos impepinables:
1.- El hard de shaders y TMUs es un +75% en cuanto a unidades totales (en Titan).
2.- GPCs, un +25% por tener 5 vs 4 (+25%).
3.- ROPs, controladores de memoria, etc: Un 50% más que en el chip GK104.
El tema del punto tres limitará el rendimiento en muchas situaciones donde los filtrados y accesos a memoria marquen el rendimiento. Si tienes el 50% más de ancho de banda, y una aplicación está limitada por ancho de banda, con la memoria funcionando a la misma frecuencia difícilmente podrás superar el rendimiento del chip "pequeño" en más de esa mejora del 50% (excepto que el chip pequeño tenga una mayor limitación en otra área con esa aplicación que no sea en memoria, claro).
Pero otras situaciones están limitadas por shaders o TMUs, y no pocas en 3D. Así que es posible que muchas aplicaciones se vean más influidas por el punto 1 que por el punto 3.
Los GPCs no deberían limitar casi nada porque las capacidades de geometría y teselado hoy en día están infrautilizadas, y ya sabemos porqué, y no, no tiene nada que ver ni con kepler ni con fermi. ¬¬
Ahora a toda esta cuenta hay que sumarle el hecho de que Titan funciona a frecuencias más bajas, por lo menos de stock, lo cual echaría para atrás algunos de estos porcentajes en cierto grado.
De todas formas, existe la ventana de oportunidad para mejorar el rendimiento en ciertas aplicaciones por encima del 50%, sin contar que el OC tiene pinta que podrá ser bastante interesante, ya se ha dicho en Guru3D que han puesto sin problemas su unidad a 1,1 GHz (para ese bicho no está mal), posiblemente sin contar el tema del desbloqueo de voltaje (cuidado con su aplicación, nunca me cansaré de decirlo), y otros detalles que lleven más allá el potencial de la gráfica.
Es posible ese 50% y de hecho superarlo, sí, también es posible, aunque habría que verlo, que se incrementen las diferencias con el OC.
Pero sobre todo lo que da esta gráfica es un rendimiento nunca visto antes con una monogpu, posiblemente más cercana en sensaciones a una dual que a una monogpu ordinaria.Porque tampoco hay que olvidar que una GTX 690 NO es un SLI de GTX 680, sino que se queda algo por debajo, y los sistemas multigpu básicamente nunca llegan al 100% de escalado de rendimiento, aunque haya casos donde se acercan.
El precio es una barbaridad, pero despotricar contra él no sirve de nada. No veo que nadie se queje del precio de la ARES 2 (la 7990 "oficial" según AMD ¬¬), y le saca un buen pico (1600$) a la Titan, aunque rinda "más" (pero en qué condiciones).
-
Lo que dices wendigo es muy interesante,y demuestra que bajo algunas-muchas-pocas,circunstancias,ese 50% puede incluso que mas,ser una realidad…
En cuanto al OC igual...levar sin problemas ese mosntruo a 1,1GHZ,hace que ya ganes un 25% de rendimiento,quizás mas con el control de voltaje...cosa imposible para una GTX 680..que aunque no lo parezca,también ocea...y sino,miraló donde tu ya sabes...;)
-
Lo que dices wendigo es muy interesante,y demuestra que bajo algunas-muchas-pocas,circunstancias,ese 50% puede incluso que mas,ser una realidad…
En cuanto al OC igual...levar sin problemas ese mosntruo a 1,1GHZ,hace que ya ganes un 25% de rendimiento,quizás mas con el control de voltaje...cosa imposible para una GTX 680..que aunque no lo parezca,también ocea...y sino,miraló donde tu ya sabes...;)
Si, si ya… frito me tienen algunos que me aseguran que las Kepler "no escalan" el rendimiento con el OC o que no hacen nada de nada de éste. Harto de explicar el tema y poner cifras de rendimiento medido.
Las cuentas las tengo hechas y las cosas no son "blancas o negras" como alguna gente gusta de decir.
Por cierto, según esta "gráfica" que no tengo ni idea de dónde viene, ya habría unos cuantos casos de mejora del 50% con drivers verdes y todo lo demás:
Starcraft 2 y Deus Ex. Y por ahí andarían Dirt 3, Skyrim o el Black Ops 2. De las demás gráficas, como que no miro demasiado sobre todo a las de barras pequeñitas, que no pienso dejarme la vista para interpretar qué cifra representa cada barra (podrían haber puesto por lo menos divisiones de 10 fps, digo yo).