Nvidia Geforce Titan (gk110)
-
Jotole,dile a unicoor que confirme lo de las unidades.Porque hasta donde yo sé,de edición limitada nada…simplemente,que en el lanzamiento habrá de 10000 unidades disponibles...pero por ejemplo,en de la GTX 480 fué de 15000 creo...y desde luego no fué edición limitada...;)
No obstante parece que ha habido un "ligero" retraso,creo que por culpa del boost y los drivers que no se llevanab bien,y hoy no debe anunciarse nada..
Un saludo.
Ok, Desde luego mejor informado que tú habrá pocas personas sobre este tema. ;).
Gracias,
Un Abrazo !!!
-
Joé estais a la que salta, te me has adelantado por horas…................xD. Ahí dejo algunas imagenes, Madre mia que pinta tiene eso !!!
Mas Datos Nvidia GTX Titan
Salu2..
Pues no fui yo quien las vio primero,las noticias vuelan,la pinta si muy buena lastima que en precio no podamos decir lo mismo,pero bueno contra antes salgan antes bajan,tambien es posible que antes salgan nueva generacion o se dignen sacar un K20 a un precio menos prohibitibo.
Saludos
-
Pues no fui yo quien las vio primero,las noticias vuelan,la pinta si muy buena lastima que en precio no podamos decir lo mismo,pero bueno contra antes salgan antes bajan,tambien es posible que antes salgan nueva generacion o se dignen sacar un K20 a un precio menos prohibitibo.
Saludos
Quizás si sacaran una versión con 3Gb…
-
Quizás si sacaran una versión con 3Gb…
Tendrian opciones por que pienso que una de 3 GB seguiria siendo cara y ademas en rendimiento no envidiaria nada a esa de 6GB,tendria que rendir lo mismo,quiza en resoluciones muy altas con tres monitores de 30" 1600p perdiera pero para una resolucion normal incluso un solo monitor 1600p no creo que hubiera diferencias.
Esperaria mas un K20 y quiza le metan 2,5 GB de Vram o saquen dos versiones una de 2,5Gb y otra con 5GB,no se si al K20 le podran dejar los 384 bits para que tuviera 3GB,esperaria mas algo mas capado que esa Titan,por que sino va a canibalizarse ella sola.
Saludos
-
Sacado de Xtremesystems:
Por cierto, implementa Boost 2.0, que parece que tiene en cuenta la temperatura de la GPU en lugar de el TDP para subir el voltaje y la frecuencia (Hasta cierto punto claro).
-
Eso venia yo a poner,pero lo que me parece mas interesante es lo del advanced voltaje,supongo que tendra un limite como siempre bajo aunque quiza esta vez permita algo mas,pero eso parece como un cuadro o programa para poder subir la grafica,sera algo exclusivo de Titan,como pone unlock voltaje quiza sea para OC mas extremo.
Como sera eso de 80 FPs con vsync supongo que se necesitara un monitor con ese refresco para poder tener ese vsync.
saludos
-
Eso venia yo a poner,pero lo que me parece mas interesante es lo del advanced voltaje,supongo que tendra un limite como siempre bajo aunque quiza esta vez permita algo mas,pero eso parece como un cuadro o programa para poder subir la grafica,sera algo exclusivo de Titan,como pone unlock voltaje quiza sea para OC mas extremo.
Como sera eso de 80 FPs con vsync supongo que se necesitara un monitor con ese refresco para poder tener ese vsync.
saludos
Eso de los 80 fps no sé a qué leches se refieren, no tiene mucho sentido porque para empezar no hay monitores de 80 fps.
O se refieren a que se podrá poner un límite más bajo que 120 Hz (o 100 Hz, la mayoría de monitores de 120 Hz lo soportan también), para no disparar consumos o lo que sea, o se refieren a algo más exótico.
A ver si va a ser una forma de "forzar" 80 fps en un monitor de 60 Hz, overclock del monitor via tarjeta!!!" jajaja
En serio, me suena o a que es un "fake" de característica, o si es posible, a que quizás se consigan esos 80 FPS con algún método bizarro de pasar 80 fps -> 60 fps ya sea interpolando/mezclando frames o algo del estilo (el ratio sería 1,33X). Evitando el tearing pero haciendo a cambio alguna cosa "rara".
Lo de 80 fps en un monitor que dé más de 60 Hz, simplemente me parece una chuminada sin sentido que no tiene razón de exclusividad alguna (bueno, tampoco lo de "forzar" 80 Hz, pero igual si se hace vía "mezclado" de frames, podría "justificarse" algo esta exclusividad).
-
Sacado de Xtremesystems:
Por cierto, implementa Boost 2.0, que parece que tiene en cuenta la temperatura de la GPU en lugar de el TDP para subir el voltaje y la frecuencia (Hasta cierto punto claro).
Osea que a estas le pones un bloque de rl, y rinden mas si o si….. Interesante..... :).
Salu2...
-
Me gusta lo que voy viendo, tiene buena pinta y ojalá sea como dice jotole, metiéndole una buena rl que aumentes rendimiento.
Lo que no entiendo es lo de los 80 fps :ugly:Un saludo.
-
Crysis 2
Radeon HD 7970 GHz Edition: 68 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %
–--------------
GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/68)*100 = 147 % = 47 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % faster3DMark 2013 X Firestrike
Radeon HD 7970 GHz Edition: 77 %
GeForce GTX 680: 67 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/77)*100 = 130 % = 30 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/67)*100 = 149 % = 49 % faster3DMark Vantage GPU
Radeon HD 7970 GHz Edition: 76 %
GeForce GTX 680: 81 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/76)*100 = 132 % = 32 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/81)*100 = 124 % = 24 % fasterBattlefield 3
Radeon HD 7970 GHz Edition: 74 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/74)*100 = 135 % = 35 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % fasterFar Cry 3
Radeon HD 7970 GHz Edition: 70 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/70)*100 = 143 % = 43 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterHitman
Radeon HD 7970 GHz Edition: 81 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/81)*100 = 124 % = 24 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterConclusion
GeForce GTX Titan average increase over Radeon HD 7970 GHz Edition: (47 + 30 + 32 + 35 + 43 + 24) / 6 = 35 %
GeForce GTX Titan average increase over GeForce GTX 680: (54 + 49 + 24 + 54 + 37 + 37) / 6 = 42.5 %Fuente: www.xtremesystems.org
Salu2…
-
Crysis 2
Radeon HD 7970 GHz Edition: 68 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %
–--------------
GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/68)*100 = 147 % = 47 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % faster3DMark 2013 X Firestrike
Radeon HD 7970 GHz Edition: 77 %
GeForce GTX 680: 67 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/77)*100 = 130 % = 30 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/67)*100 = 149 % = 49 % faster3DMark Vantage GPU
Radeon HD 7970 GHz Edition: 76 %
GeForce GTX 680: 81 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/76)*100 = 132 % = 32 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/81)*100 = 124 % = 24 % fasterBattlefield 3
Radeon HD 7970 GHz Edition: 74 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/74)*100 = 135 % = 35 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % fasterFar Cry 3
Radeon HD 7970 GHz Edition: 70 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/70)*100 = 143 % = 43 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterHitman
Radeon HD 7970 GHz Edition: 81 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/81)*100 = 124 % = 24 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterConclusion
GeForce GTX Titan average increase over Radeon HD 7970 GHz Edition: (47 + 30 + 32 + 35 + 43 + 24) / 6 = 35 %
GeForce GTX Titan average increase over GeForce GTX 680: (54 + 49 + 24 + 54 + 37 + 37) / 6 = 42.5 %Fuente: www.xtremesystems.org
Salu2…
Pues menos mal que por lo menos aquí se ponen los porcentajes correctamente, no como he visto por otros lares.
De todas formas hay que tener en cuenta que hay por lo menos un outsider entre los juegos: Hitman.
Es un juego muy escorado hacia AMD por las "optimizaciones" introducidas por el sello "gaming evolved" de AMD, así que habría que descartarlo para una comparativa justa. O por lo menos si se tiene en cuenta algo de este tipo, meter algún juego en la media con "escore" igual de fuerte pero hacia nvidia.
Después de esto, en ese total de pruebas hay dos 3dmark (qué manía con los 3dmark, cuando no representan en absoluto el "estado del arte" en motores de juegos), curiosamente no el 3dmark11 que sería el que daría ese primer dato filtrado del 85% del rendimiento de una GTX 690.
Así que al final el número de juegos visto en esa tabla, y aún suponiendo que no es falsa y que es correctísima en metodología, no mete suficientes juegos como para dar una imagen general fiable de qué se puede esperar de esta tarjeta en rendimiento.
Además que la "deriva" que introduce un juego con "escoraje" hacia un lado en pruebas con pocos juegos usados siempre es mucho más intenso que en un análisis con muchos más juegos y tests tenidos en cuenta.
O sea, que toca esperar de todas formas para hacerse una idea mínimamente cercana a la realidad de uso de esta tarjeta.
PD: De todas formas este rendimiento se encuadra en mis predicciones anteriores (por otro foro) de un rendimiento tope del 50% extra contra una GTX 680, y en algún caso menor, un rango del 35-50%.
PPD: Pensando en el tema de los 80 fps veo una coincidencia que podría dar peso a que sea algo parecido a la cábala que hice antes. Está claro que no se refiere a un monitor de 60 Hz hacerlo funcionar a 80 fps, tampoco puede ser poner un cap de 80 fps al Vsync en un monitor de 120 Hz, porque no tiene demasiado sentido o no es meritorio de destacar.
Pero la relación 1.33 entre 80 fps renderizados y los 60 Hz de una pantalla tiene ciertas propiedades interesantes si se va a usar algún sistema de mezclado de imágenes. Es en realidad una relación de 4 frames renderizados por cada 3 frames mostrados:
Así que el tema quedaría así:
Render1–--------Render2------------Render3-----------Render4
-----------Vsync1-------------Vsync2-------------Vsync3------------Cada imagen enviada a pantalla encajaría justo como una imagen "intercalada" entre dos de las generadas por la tarjeta, pudiéndose enviar el resutlado de un filtrado de blending o similar entre ambos buffers, tomando como base la primera y agregando la segunda de las imágenes, y así con cada una de las siguientes. Podría dar la sensación de 80 fps al ojo humano usando un monitor de 60 Hz. Además de que no tendría ningún problema de flickering ni tearing por el tema de enviar más imágenes al monitor de las que puede mostrar.
El único coste sería una cierta sobrecarga de proceso en shaders, sobre todo, en la gpu al tener que procesar esa "fusión" entre buffers consecutivos renderizados para enviar a pantalla una imagen. Algo que de todas formas debería ser muy fácilmente realizable por el GK110 con su sobredimensionado hard de shaders, TMUs y ROPs, sin pérdida apreciable de rendimiento. No creo que hubiera problema para implementarlo en otros chips, pero de los de la familia de Kepler, el que iría más sobrado en sus dimensiones técnicas para hacer algo así sería precisamente el GK110.
-
Eso de los 80 fps no sé a qué leches se refieren, no tiene mucho sentido porque para empezar no hay monitores de 80 fps.
O se refieren a que se podrá poner un límite más bajo que 120 Hz (o 100 Hz, la mayoría de monitores de 120 Hz lo soportan también), para no disparar consumos o lo que sea, o se refieren a algo más exótico.
A ver si va a ser una forma de "forzar" 80 fps en un monitor de 60 Hz, overclock del monitor via tarjeta!!!" jajaja
En serio, me suena o a que es un "fake" de característica, o si es posible, a que quizás se consigan esos 80 FPS con algún método bizarro de pasar 80 fps -> 60 fps ya sea interpolando/mezclando frames o algo del estilo (el ratio sería 1,33X). Evitando el tearing pero haciendo a cambio alguna cosa "rara".
Lo de 80 fps en un monitor que dé más de 60 Hz, simplemente me parece una chuminada sin sentido que no tiene razón de exclusividad alguna (bueno, tampoco lo de "forzar" 80 Hz, pero igual si se hace vía "mezclado" de frames, podría "justificarse" algo esta exclusividad).
Por eso me extraño a mi,yo tengo uno de 75 hz pero de 80 no los conozco,a no ser que sea algo como el adaptable y que deja hasta 80 fps,a ver que sacan al final por que ultimamente tienen otro vsync que llaman suave,aunque da problemas con juegos como dead space 3,se engancha a 30 fps a veces.
Tambien habia pensado que en monitores de 120 hz si no da suficientes FPS ponerlo a 80 fps y mantener mas estables los frames.
Tambien en esa comparativa de juegos esta farcry 3 que aunque va mejor en Nvidia hace un uso alto de supersampling,al igual que Hitman y con eso las AMD quiza esten mas cerca,posiblemente ocurra igual en Sleeping dogs,pero falta por ver en configuraciones y resoluciones para poder jugar que suele cambiar algo la cosa.
saludos
-
Por eso me extraño a mi,yo tengo uno de 75 hz pero de 80 no los conozco,a no ser que sea algo como el adaptable y que deja hasta 80 fps,a ver que sacan al final por que ultimamente tienen otro vsync que llaman suave,aunque da problemas con juegos como dead space 3,se engancha a 30 fps a veces.
Tambien habia pensado que en monitores de 120 hz si no da suficientes FPS ponerlo a 80 fps y mantener mas estables los frames.
Tambien en esa comparativa de juegos esta farcry 3 que aunque va mejor en Nvidia hace un uso alto de supersampling,al igual que Hitman y con eso las AMD quiza esten mas cerca,posiblemente ocurra igual en Sleeping dogs,pero falta por ver en configuraciones y resoluciones para poder jugar que suele cambiar algo la cosa.
saludos
No, si Far Cry 3 precisamente es uno de los pocos títulos "gaming evolved" que no tiene supersampling sino MSAA como método principal de AA en su panel de control.
Lo que sí puede tener es supersampling en texturas transparentes, eso sí podría ser posible porque además a este juego le viene que ni al pelo, pero las opciones que AMD ha "metido" son técnicas de Ambient Oclussion y similares.
Los casos de Hitman, Sleeping Dogs y Sniper Elite son distintos, porque además de introducir un SSAA, que de por sí es muy costoso (para todas las gráficas, menos en las AMD por ancho de banda pero costoso al fin y al cabo), meten como "añadido" MLAA o similares via GPGPU e incluso creo que alguno de estos casos también MSAA.
Es algo absurdo porque una vez usado SSAA no debería meterse ese tipo de añadidos extra, pero todo es para justificar un rendimiento en "todo al máximo" que favorezca a gráficas con gran ancho de banda, aunque se estropee el rendimiento totalmente.
A mi jamás se me ocurriría usar simultáneamente SSAA+MSAA+MLAA, porque es absurdo.
-
Bueno,pues realmente no sé si esa tabla filtrada será real o no,o si lo es,con que drivers.Porque hasta última hora de la tarde de ayer,no salieron los drivers que dán soporte a TITAN.Es mas,muchos reviewers,han tenido los samples de pisapapeles todo el fin de semana por este motivo.También es cierto que se podian utilizar drivers "adaptados" pero logicamente,no es lo mismo.
No obstante,las filtraciones que me están llegando,no són desde luego las que parecían en un principio.Estariamos hablando de una gráfica entorno al 40-50% mas potente que la GTX 680.Depende de lo que se pase evidentemente,y eso sí,al parecer incluso mas silenciosa.
Si realmente rinde eso,que no está nada mal tampoco,no estariamos desde luego ante una come dual,pero siempre podemos pensar que Nvidia ha sido muy conservadora con los cloks,por el tema del TPD y demás,y pueden ocear bastante bien y compensar por ese lado.Pero también hay que ver lo dependiente de CPU que es,ya sabemos que el 99% de reviews són con equipos de stock,si realmente empieza a merecer la pena un PCI 3.0 etc..yo como siempre,a pesar de las reviews,no daré una opinión hasta tenerla en casa y ver realmente lo que dá de si..
Un saludo.
-
No, si Far Cry 3 precisamente es uno de los pocos títulos "gaming evolved" que no tiene supersampling sino MSAA como método principal de AA en su panel de control.
Lo que sí puede tener es supersampling en texturas transparentes, eso sí podría ser posible porque además a este juego le viene que ni al pelo, pero las opciones que AMD ha "metido" son técnicas de Ambient Oclussion y similares.
Los casos de Hitman, Sleeping Dogs y Sniper Elite son distintos, porque además de introducir un SSAA, que de por sí es muy costoso (para todas las gráficas, menos en las AMD por ancho de banda pero costoso al fin y al cabo), meten como "añadido" MLAA o similares via GPGPU e incluso creo que alguno de estos casos también MSAA.
Es algo absurdo porque una vez usado SSAA no debería meterse ese tipo de añadidos extra, pero todo es para justificar un rendimiento en "todo al máximo" que favorezca a gráficas con gran ancho de banda, aunque se estropee el rendimiento totalmente.
A mi jamás se me ocurriría usar simultáneamente SSAA+MSAA+MLAA, porque es absurdo.
Creia que farcry 3 tenia SSAA,pero era raro ya que permite 8x,pero al final en la mayoria de juegos aunque tengan SSAA hay que poner configuraciones para jugar similares tanto en Nvidia como AMD,incluso Sleeping dogs a mi me gusta mas con SSAA en alto que en extremo,en extremo tiene mucho reflejo y lo veo algo exagerado.
Lo del GPGPU la historia se repite ahora el nuevo 3dmark que graficamente no me parece nada del otro mundo para lo que pide,test cortisimos y muy raros,creo que usan GPGPU,ultimamente parece que se hace mas de cara al resultado para quedar por delante y no se cuida lo mas importante que es la jugabilidad,por que en ese mismo 3dmark he visto alguna 7970 con un MS importante,pone la ventana de los FPS que da durante el test y se ve demasiado pico,con kepler va mas plano.
saludos
-
Bueno,pues realmente no sé si esa tabla filtrada será real o no,o si lo es,con que drivers.Porque hasta última hora de la tarde de ayer,no salieron los drivers que dán soporte a TITAN.Es mas,muchos reviewers,han tenido los samples de pisapapeles todo el fin de semana por este motivo.También es cierto que se podian utilizar drivers "adaptados" pero logicamente,no es lo mismo.
No obstante,las filtraciones que me están llegando,no són desde luego las que parecían en un principio.Estariamos hablando de una gráfica entorno al 40-50% mas potente que la GTX 680.Depende de lo que se pase evidentemente,y eso sí,al parecer incluso mas silenciosa.
Si realmente rinde eso,que no está nada mal tampoco,no estariamos desde luego ante una come dual,pero siempre podemos pensar que Nvidia ha sido muy conservadora con los cloks,por el tema del TPD y demás,y pueden ocear bastante bien y compensar por ese lado.Pero también hay que ver lo dependiente de CPU que es,ya sabemos que el 99% de reviews són con equipos de stock,si realmente empieza a merecer la pena un PCI 3.0 etc..yo como siempre,a pesar de las reviews,no daré una opinión hasta tenerla en casa y ver realmente lo que dá de si..
Un saludo.
Supongo que esos drivers serán los recién sacados WHQL, que la única mejora que tienen es un irrisorio 5% en Crysis 3. Vamos, si no es por la Titan no veo razón para que hubiera salido este WHQL. Es que con la historia del fallo de seguridad que encontraron en el driver en Enero y esto, llevan 3 drivers WHQL en menos de 2 meses, cuando normalmente no suele haber más que un driver WHQL por mes, y gracias si tal.
La gente es la hostia y se hace hypes solitos sin ayuda de nadie, ¿en qué cabeza cabe que se duplique el rendimiento en 3D entre un chip top de una generación vs el performance de la misma?
Porque eso es el origen del GK104 y el GK110, aunque el último pueda tener optimizaciones y mejoras por este tiempo extra, es de la misma generación y usa el mismo proceso de fabricación. Si ya es raro que se consigan mejoras así de grandes (de ser ciertos estos datos) entre un top y un chip performance.
Creo que el chip cumple sobradamente, precio totalmente aparte y que aún queda por comprobar (que de todas formas, será muy caro). Ahora que algunos se imaginaban historias, tanto positivas como negativas, alguna gente diciendo que si más de 1000€ o bastante más incluso (lo dudo), otros que si se come a una GTX 690 (ja), etc.
La historia de siempre en cada lanzamiento.
Por cierto ELP3, ¿no te irás a pillar alguna de estas Titan para probar, verdad? XD
Sé que igual estás pasota en estos temas ya, pero sería bueno saber experiencias si tal, pero sin agobios.
Creia que farcry 3 tenia SSAA,pero era raro ya que permite 8x,pero al final en la mayoria de juegos aunque tengan SSAA hay que poner configuraciones para jugar similares tanto en Nvidia como AMD,incluso Sleeping dogs a mi me gusta mas con SSAA en alto que en extremo,en extremo tiene mucho reflejo y lo veo algo exagerado.
Lo del GPGPU la historia se repite ahora el nuevo 3dmark que graficamente no me parece nada del otro mundo para lo que pide,test cortisimos y muy raros,creo que usan GPGPU,ultimamente parece que se hace mas de cara al resultado para quedar por delante y no se cuida lo mas importante que es la jugabilidad,por que en ese mismo 3dmark he visto alguna 7970 con un MS importante,pone la ventana de los FPS que da durante el test y se ve demasiado pico,con kepler va mas plano.
saludos
Permite 8x pero por MSAA. De todas formas en este juego el AA es bastante caro, así que igual de ahí viene la confusión (y tiene sentido que sea caro con tanta "geometría" en pantalla, sin contar el hecho de cómo gestione las texturas transparentes).
El SSAA en extremo no debería dar ningún tipo de cambio como el que dices, lo que pasa es que me da que en Sleeping Dogs la opción que controla el SSAA también activa otros filtros (de postproceso via GPGPU), si el SSAA fuera una opción que se controlara de forma "pura" esto no te pasaba.
El SSAA es el AA "tonto" o "bruto", porque de hecho fue la primera técnica de AA usada en gráficas 3D para juegos, pero es muy cara porque hace un sampleo total de X píxeles por cada uno en pantalla, y no aplica ningún tipo de algoritmo inteligente para detectar si se debe aplicar o no (como el MSAA en los bordes, por ejemplo, o los filtros de postproceso como FXAA/MLAA) y se usa en todo pixel pintado en pantalla, incluido el interior de los triángulos (el anisotrópico se "parece" al SSAA en este punto).
La combinación de MSAA+Aniso es la combinación de técnicas inteligentes que intentan conseguir resultados similares al uso de SSAA, y por lo menos en el caso del aniso lo consiguen y de hecho lo mejoran, el MSAA se encuentra con el problema de los motores de renderizado "deferred" actuales que le complican la vida, que si no también estaría compitiendo muy bien contra el SSAA.
El único juego donde veo beneficios reales de uso del SSAA es en SniperV2, donde el sampleo de píxeles extra aumenta el detalle de los objetos lejanos o pequeños mostrados en pantalla, lo cual en un juego de francotiradores pinta mucho como calidad y mejora de la jugabilidade. El MSAA no puede superar el sampleo de X píxeles reales que hace el SSAA.
Saludos.
–-----------------
Las 3 de la tarde, así que supuestamente se liberan los NDAs a partir de ahora:
http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1
Pues vaya mierda, de momento son previews, y en guru3d se dice que hasta el juevesno hay review oficial por su parte. Se ve que cobra base el rumor de necesidad de pasar las pruebas con nuevo firm o driver por el tema del boost o lo que fuera que interfiriera para las reviews originalmente pensadas para "ayer".
-
Ya han sacado este mini clip los de Nvidia parece un anuncio de cuchillas de afeitar :troll:
-
Joder, qué fuerte, lo del OC del monitor iba en serio… XD.
Esto es peligrosillo, a ver qué hace la gente, veo despunte de ventas de monitores un mes después de Titan, jajaja (ESPERO que esta característica pueda ser usada por todos los usuarios de nvidia, o como mínimo los de kepler, no tiene mucho sentido vincularla sólo a Titan).
Sobre la tarjeta, a falta de reviews, sus características que más me han llamado:
1.- Se mantiene plenamente funcional la parte de unidades de cálculo de DP, simplemente tienes que elegir en el panel de control si quieres tener esta parte de la funcionalidad a plena capacidad (1/3 de las operaciones en SP) o si lo dejas como viene (1/24 de las operaciones de SP, como en el GK104). También mencionar que si quieres "todo el bicho" encendido se va a la mierda el boost, se deshabilita para "limitar" consumos. Lo que igual hasta le gusta a más de uno.
2.- Se soporta de nuevo el cambio de voltaje por soft. Todo depende del voltaje que define como tope cada fabricante, pero en principio nvidia da carta blanca a estos para definirlo (supongo que con un límite). En anandtech parecen haber jugado con él con valores de 1,2V por lo menos.
3.- La gráfica viene con un voltaje máximo con el boost que me ha llamado la atención, por alto. 1,1625V, un paso por debajo del máximo voltaje en las GK104.
4.- Curioso que en el PCB se vea marcado el lugar para meter OTRO conector de 8 pines para alimentación, en posición muy distinta a lo de los ya existentes. A saber, pero desde luego curioso es.
5.- El boost controlado principalmente por temperatura más que por consumo, dado que lleva conectores de sobra para superar con mucho los 250w de TDP, y que el boost está más limitado por la temperatura que otra cosa, todo pinta a un potencial de OC importante, o por lo menos los mimbres están ahí. En anandtech hablan de velocidades de boost (no "oficiales", ya sabemos cómo va eso) de casi 1GHz.
O sea, que toqueteando cosas en un lado y otro, subiendo TDPs y límites de temperatura, con curvas de ventiladores más voltajes y conectores de alimentación muy por encima del límite de TDP (2x8 pines = 300W más los 75/150W de la ranura PCI-e), tiene pinta de poder conseguir buenos OCs.
A seguir "rateando" por la red datos, pero vamos, reviews va a ser que hasta dentro de uno o dos días no va a poder ser.
-
Supongo que esos drivers serán los recién sacados WHQL, que la única mejora que tienen es un irrisorio 5% en Crysis 3. Vamos, si no es por la Titan no veo razón para que hubiera salido este WHQL. Es que con la historia del fallo de seguridad que encontraron en el driver en Enero y esto, llevan 3 drivers WHQL en menos de 2 meses, cuando normalmente no suele haber más que un driver WHQL por mes, y gracias si tal.
La gente es la hostia y se hace hypes solitos sin ayuda de nadie, ¿en qué cabeza cabe que se duplique el rendimiento en 3D entre un chip top de una generación vs el performance de la misma?
Porque eso es el origen del GK104 y el GK110, aunque el último pueda tener optimizaciones y mejoras por este tiempo extra, es de la misma generación y usa el mismo proceso de fabricación. Si ya es raro que se consigan mejoras así de grandes (de ser ciertos estos datos) entre un top y un chip performance.
Creo que el chip cumple sobradamente, precio totalmente aparte y que aún queda por comprobar (que de todas formas, será muy caro). Ahora que algunos se imaginaban historias, tanto positivas como negativas, alguna gente diciendo que si más de 1000€ o bastante más incluso (lo dudo), otros que si se come a una GTX 690 (ja), etc.
La historia de siempre en cada lanzamiento.
Por cierto ELP3, ¿no te irás a pillar alguna de estas Titan para probar, verdad? XD
Sé que igual estás pasota en estos temas ya, pero sería bueno saber experiencias si tal, pero sin agobios.
Saludos.
Las 3 de la tarde, así que supuestamente se liberan los NDAs a partir de ahora:
http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1
Pues vaya mierda, de momento son previews, y en guru3d se dice que hasta el juevesno hay review oficial por su parte. Se ve que cobra base el rumor de necesidad de pasar las pruebas con nuevo firm o driver por el tema del boost o lo que fuera que interfiriera para las reviews originalmente pensadas para "ayer".
Sí,me refiero a los whql.Que llevan el ini. de TITAN,los anteriores drivers no lo llevaban y por lo tanto no funcionaban.
No obstante,efectivamente parece que hay un lio con el boost,de momento no funciona el boost 2.0,no se sabe muy bien si por drivers o por firm.Como Nvidia en los lanzamientos,pone drivers beta via ftp cada vez que lo vé oportuno,es posible que ni los whql salidos ayer,sean los definitivos para estas gráficas.
En cuanto al rendimiento,bueno,siempre y cuando sea un 50% y ampliable mediante OC,yo lo veo bien…pero si solo es un 40% y encima,valiendo el doble,no hay excusa..pero bueno,ya veremos,a mí me dicen que tiene un grandísimo rendimiento pero sin ser la "revolución" que todo el mundo esperaba mediante hypie,fake o lo que sea..
Y sí,me voy a hacer con 3 para "prejubiliar" a mis 4 GTX 680...mi pantalla de 30" lo agradecerá a buen seguro..;)
Un saludo.
P.D.Por cierto,al llevar retraso el lanzamiento,no se levanta NDA hasta el dia 21.
-
Y sí,me voy a hacer con 3 para "prejubiliar" a mis 4 GTX 680…mi pantalla de 30" lo agradecerá a buen seguro.
No necesitaran gente en tu curro por casualidad no? :ugly::ugly: Tienes 1 monitor de 30" o 3? XD