Nvidia Geforce Titan (gk110)
-
Juas, al menos tienen la decencia de no ponerle otro nombre, esto le pasa a Nvidia y saca la 10000 mx.
Perdona,pero decencia y empresas multinacionales no ván de la mano….jeje...ninguna.Cada una aprovecha su momento,pero ni las hay buenas ni malas..són el mismo perro con distinto collar..
Salu2.
-
Para mi ninguna empresa es decente,yo eso de seguir llamandoles 7000 no me lo creo,le quedaria 7980 y 7960 y lo normal es que use el 7 y el 5,el 8 y el 6 lo hace nvidia.
Pero yo lo que saco en claro de esa noticia si es verdad que saca un refresco es que la serie 700 de nvidia esta proxima tambien y rendimiento watio lo tiene mas facil para sacar algo mejor que su serie 600.
Me refiero a multinacionales,por que hay empresas digamos personales o familiares que quiza si sean mejores,pero en multinacionales todas apestan.
Es que esa noticia no me cuadra mucho cuando saco la 4980 cambio de 4870,ahora siendo 79xx lo veo mas confuso,aunque bueno es bueno que salgan cosas nuevas.
Pues acaban de poner en Anandtech una noticia en la que dicen que AMD si que sacará las sea islands este año, tanto para escritorio como para portatil, solo que en portatiles se llamarán HD8000M pero en escritorio seguirán llamandose HD7000, básicamente por que parecen ser exactamente la misma arquitectura sin ningún cambio, simplemente tienen más CUs (Por lo tanto más shaders, TMUs…) pero por lo demás son iguales, vamos, son unas GCN más infladas. Fuente: http://www.anandtech.com/show/6751/amd-reiterates-2013-gpu-plans-sea-islands-beyond
Yo en esa noticia leo que no sacara algo mas potente que Tahiti,lo que piensa sacar es algo nuevo para portatil y para gama baja economica,pero dice que no piensa sacar nada superior a Tahiti hasta la proxima generacion.
De todas formas claro que deberia salir este año a partir del tercer trimestre segun los rumores,pero esa noticia no dice de sacar algo superior a Tahiti o yo no lo veo.saludos
-
Se deja caer aquí:
AMD has been doing everything they can to prepare the press to accept the idea that Tahiti will remain as AMD’s fastest GPU until the end of the year. Sometimes what AMD doesn’t say says it all, and in this case what’s not being said (but being strongly implied) is that AMD will not be coming out with a GCN1 GPU more powerful than Tahiti.
Dice que AMD ha hecho todo lo que ha podido para preparar a la prensa para que acepten la idea de que Tahiti seguirá siendo el chip más potente de AMD hasta final de año. Pero a veces, lo que AMD no dice lo dice todo, y en este caso lo que no dice es que AMD no vaya a sacar nada más potente que Thaiti.
En otras palabras, AMD lleva tiempo diciendo que sus HD7900 seguirán siendo lo más potente, pero en ningún momento dicen que vayan a mantener el chip Thaiti durante todo el año. Tácticas de empresa supongo.
-
Quiza sea el traductor que hace un lio todo,de todas formas algo si sacaran supongo posiblemente en segundo o tercer trimestre que era cuando lo habian anunciado.
pero lo que dice de serie 7000 que piensan sacar son graficas de precio bajo y graficas de portatil ,a ninguno nos interesa que no salgan graficas nuevas de gama alta y ademas de precio normal por que Titan se escapa para muchos en precio,yo desde luego no pago eso,aunque me parezca un pedazo grafica creo que si la generacion hubiera sido mas normal tendriamos algo similar a Titan pero a precio de 680.
Pepino.
GeForce Titan Final Product Pictures Leakedhttp://videocardz.com/39618/nvidia-geforce-gtx-titan-pictured
saludos
-
Quiza sea el traductor que hace un lio todo,de todas formas algo si sacaran supongo posiblemente en segundo o tercer trimestre que era cuando lo habian anunciado.
pero lo que dice de serie 7000 que piensan sacar son graficas de precio bajo y graficas de portatil ,a ninguno nos interesa que no salgan graficas nuevas de gama alta y ademas de precio normal por que Titan se escapa para muchos en precio,yo desde luego no pago eso,aunque me parezca un pedazo grafica creo que si la generacion hubiera sido mas normal tendriamos algo similar a Titan pero a precio de 680.
Pepino.
GeForce Titan Final Product Pictures LeakedNVIDIA GeForce GTX Titan Pictured (Update: More Pictures) | VideoCardz.com
saludos
Joé estais a la que salta, te me has adelantado por horas…................xD. Ahí dejo algunas imagenes, Madre mia que pinta tiene eso !!!
Mas Datos Nvidia GTX Titan
Salu2..
-
Joé estais a la que salta, te me has adelantado por horas…................xD. Ahí dejo algunas imagenes, Madre mia que pinta tiene eso !!!
Mas Datos Nvidia GTX Titan
Salu2..
Jotole,dile a unicoor que confirme lo de las unidades.Porque hasta donde yo sé,de edición limitada nada…simplemente,que en el lanzamiento habrá de 10000 unidades disponibles...pero por ejemplo,en de la GTX 480 fué de 15000 creo...y desde luego no fué edición limitada...;)
No obstante parece que ha habido un "ligero" retraso,creo que por culpa del boost y los drivers que no se llevanab bien,y hoy no debe anunciarse nada..
Un saludo.
-
Jotole,dile a unicoor que confirme lo de las unidades.Porque hasta donde yo sé,de edición limitada nada…simplemente,que en el lanzamiento habrá de 10000 unidades disponibles...pero por ejemplo,en de la GTX 480 fué de 15000 creo...y desde luego no fué edición limitada...;)
No obstante parece que ha habido un "ligero" retraso,creo que por culpa del boost y los drivers que no se llevanab bien,y hoy no debe anunciarse nada..
Un saludo.
Ok, Desde luego mejor informado que tú habrá pocas personas sobre este tema. ;).
Gracias,
Un Abrazo !!!
-
Joé estais a la que salta, te me has adelantado por horas…................xD. Ahí dejo algunas imagenes, Madre mia que pinta tiene eso !!!
Mas Datos Nvidia GTX Titan
Salu2..
Pues no fui yo quien las vio primero,las noticias vuelan,la pinta si muy buena lastima que en precio no podamos decir lo mismo,pero bueno contra antes salgan antes bajan,tambien es posible que antes salgan nueva generacion o se dignen sacar un K20 a un precio menos prohibitibo.
Saludos
-
Pues no fui yo quien las vio primero,las noticias vuelan,la pinta si muy buena lastima que en precio no podamos decir lo mismo,pero bueno contra antes salgan antes bajan,tambien es posible que antes salgan nueva generacion o se dignen sacar un K20 a un precio menos prohibitibo.
Saludos
Quizás si sacaran una versión con 3Gb…
-
Quizás si sacaran una versión con 3Gb…
Tendrian opciones por que pienso que una de 3 GB seguiria siendo cara y ademas en rendimiento no envidiaria nada a esa de 6GB,tendria que rendir lo mismo,quiza en resoluciones muy altas con tres monitores de 30" 1600p perdiera pero para una resolucion normal incluso un solo monitor 1600p no creo que hubiera diferencias.
Esperaria mas un K20 y quiza le metan 2,5 GB de Vram o saquen dos versiones una de 2,5Gb y otra con 5GB,no se si al K20 le podran dejar los 384 bits para que tuviera 3GB,esperaria mas algo mas capado que esa Titan,por que sino va a canibalizarse ella sola.
Saludos
-
Sacado de Xtremesystems:
Por cierto, implementa Boost 2.0, que parece que tiene en cuenta la temperatura de la GPU en lugar de el TDP para subir el voltaje y la frecuencia (Hasta cierto punto claro).
-
Eso venia yo a poner,pero lo que me parece mas interesante es lo del advanced voltaje,supongo que tendra un limite como siempre bajo aunque quiza esta vez permita algo mas,pero eso parece como un cuadro o programa para poder subir la grafica,sera algo exclusivo de Titan,como pone unlock voltaje quiza sea para OC mas extremo.
Como sera eso de 80 FPs con vsync supongo que se necesitara un monitor con ese refresco para poder tener ese vsync.
saludos
-
Eso venia yo a poner,pero lo que me parece mas interesante es lo del advanced voltaje,supongo que tendra un limite como siempre bajo aunque quiza esta vez permita algo mas,pero eso parece como un cuadro o programa para poder subir la grafica,sera algo exclusivo de Titan,como pone unlock voltaje quiza sea para OC mas extremo.
Como sera eso de 80 FPs con vsync supongo que se necesitara un monitor con ese refresco para poder tener ese vsync.
saludos
Eso de los 80 fps no sé a qué leches se refieren, no tiene mucho sentido porque para empezar no hay monitores de 80 fps.
O se refieren a que se podrá poner un límite más bajo que 120 Hz (o 100 Hz, la mayoría de monitores de 120 Hz lo soportan también), para no disparar consumos o lo que sea, o se refieren a algo más exótico.
A ver si va a ser una forma de "forzar" 80 fps en un monitor de 60 Hz, overclock del monitor via tarjeta!!!" jajaja
En serio, me suena o a que es un "fake" de característica, o si es posible, a que quizás se consigan esos 80 FPS con algún método bizarro de pasar 80 fps -> 60 fps ya sea interpolando/mezclando frames o algo del estilo (el ratio sería 1,33X). Evitando el tearing pero haciendo a cambio alguna cosa "rara".
Lo de 80 fps en un monitor que dé más de 60 Hz, simplemente me parece una chuminada sin sentido que no tiene razón de exclusividad alguna (bueno, tampoco lo de "forzar" 80 Hz, pero igual si se hace vía "mezclado" de frames, podría "justificarse" algo esta exclusividad).
-
Sacado de Xtremesystems:
Por cierto, implementa Boost 2.0, que parece que tiene en cuenta la temperatura de la GPU en lugar de el TDP para subir el voltaje y la frecuencia (Hasta cierto punto claro).
Osea que a estas le pones un bloque de rl, y rinden mas si o si….. Interesante..... :).
Salu2...
-
Me gusta lo que voy viendo, tiene buena pinta y ojalá sea como dice jotole, metiéndole una buena rl que aumentes rendimiento.
Lo que no entiendo es lo de los 80 fps :ugly:Un saludo.
-
Crysis 2
Radeon HD 7970 GHz Edition: 68 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %
–--------------
GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/68)*100 = 147 % = 47 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % faster3DMark 2013 X Firestrike
Radeon HD 7970 GHz Edition: 77 %
GeForce GTX 680: 67 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/77)*100 = 130 % = 30 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/67)*100 = 149 % = 49 % faster3DMark Vantage GPU
Radeon HD 7970 GHz Edition: 76 %
GeForce GTX 680: 81 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/76)*100 = 132 % = 32 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/81)*100 = 124 % = 24 % fasterBattlefield 3
Radeon HD 7970 GHz Edition: 74 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/74)*100 = 135 % = 35 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % fasterFar Cry 3
Radeon HD 7970 GHz Edition: 70 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/70)*100 = 143 % = 43 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterHitman
Radeon HD 7970 GHz Edition: 81 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/81)*100 = 124 % = 24 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterConclusion
GeForce GTX Titan average increase over Radeon HD 7970 GHz Edition: (47 + 30 + 32 + 35 + 43 + 24) / 6 = 35 %
GeForce GTX Titan average increase over GeForce GTX 680: (54 + 49 + 24 + 54 + 37 + 37) / 6 = 42.5 %Fuente: www.xtremesystems.org
Salu2…
-
Crysis 2
Radeon HD 7970 GHz Edition: 68 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %
–--------------
GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/68)*100 = 147 % = 47 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % faster3DMark 2013 X Firestrike
Radeon HD 7970 GHz Edition: 77 %
GeForce GTX 680: 67 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/77)*100 = 130 % = 30 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/67)*100 = 149 % = 49 % faster3DMark Vantage GPU
Radeon HD 7970 GHz Edition: 76 %
GeForce GTX 680: 81 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/76)*100 = 132 % = 32 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/81)*100 = 124 % = 24 % fasterBattlefield 3
Radeon HD 7970 GHz Edition: 74 %
GeForce GTX 680: 65 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/74)*100 = 135 % = 35 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/65)*100 = 154 % = 54 % fasterFar Cry 3
Radeon HD 7970 GHz Edition: 70 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/70)*100 = 143 % = 43 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterHitman
Radeon HD 7970 GHz Edition: 81 %
GeForce GTX 680: 73 %
GeForce GTX Titan: 100 %GeForce GTX Titan vs Radeon HD 7970 GHz Edition: (100/81)*100 = 124 % = 24 % faster
GeForce GTX Titan vs GeForce GTX 680: (100/73)*100 = 137 % = 37 % fasterConclusion
GeForce GTX Titan average increase over Radeon HD 7970 GHz Edition: (47 + 30 + 32 + 35 + 43 + 24) / 6 = 35 %
GeForce GTX Titan average increase over GeForce GTX 680: (54 + 49 + 24 + 54 + 37 + 37) / 6 = 42.5 %Fuente: www.xtremesystems.org
Salu2…
Pues menos mal que por lo menos aquí se ponen los porcentajes correctamente, no como he visto por otros lares.
De todas formas hay que tener en cuenta que hay por lo menos un outsider entre los juegos: Hitman.
Es un juego muy escorado hacia AMD por las "optimizaciones" introducidas por el sello "gaming evolved" de AMD, así que habría que descartarlo para una comparativa justa. O por lo menos si se tiene en cuenta algo de este tipo, meter algún juego en la media con "escore" igual de fuerte pero hacia nvidia.
Después de esto, en ese total de pruebas hay dos 3dmark (qué manía con los 3dmark, cuando no representan en absoluto el "estado del arte" en motores de juegos), curiosamente no el 3dmark11 que sería el que daría ese primer dato filtrado del 85% del rendimiento de una GTX 690.
Así que al final el número de juegos visto en esa tabla, y aún suponiendo que no es falsa y que es correctísima en metodología, no mete suficientes juegos como para dar una imagen general fiable de qué se puede esperar de esta tarjeta en rendimiento.
Además que la "deriva" que introduce un juego con "escoraje" hacia un lado en pruebas con pocos juegos usados siempre es mucho más intenso que en un análisis con muchos más juegos y tests tenidos en cuenta.
O sea, que toca esperar de todas formas para hacerse una idea mínimamente cercana a la realidad de uso de esta tarjeta.
PD: De todas formas este rendimiento se encuadra en mis predicciones anteriores (por otro foro) de un rendimiento tope del 50% extra contra una GTX 680, y en algún caso menor, un rango del 35-50%.
PPD: Pensando en el tema de los 80 fps veo una coincidencia que podría dar peso a que sea algo parecido a la cábala que hice antes. Está claro que no se refiere a un monitor de 60 Hz hacerlo funcionar a 80 fps, tampoco puede ser poner un cap de 80 fps al Vsync en un monitor de 120 Hz, porque no tiene demasiado sentido o no es meritorio de destacar.
Pero la relación 1.33 entre 80 fps renderizados y los 60 Hz de una pantalla tiene ciertas propiedades interesantes si se va a usar algún sistema de mezclado de imágenes. Es en realidad una relación de 4 frames renderizados por cada 3 frames mostrados:
Así que el tema quedaría así:
Render1–--------Render2------------Render3-----------Render4
-----------Vsync1-------------Vsync2-------------Vsync3------------Cada imagen enviada a pantalla encajaría justo como una imagen "intercalada" entre dos de las generadas por la tarjeta, pudiéndose enviar el resutlado de un filtrado de blending o similar entre ambos buffers, tomando como base la primera y agregando la segunda de las imágenes, y así con cada una de las siguientes. Podría dar la sensación de 80 fps al ojo humano usando un monitor de 60 Hz. Además de que no tendría ningún problema de flickering ni tearing por el tema de enviar más imágenes al monitor de las que puede mostrar.
El único coste sería una cierta sobrecarga de proceso en shaders, sobre todo, en la gpu al tener que procesar esa "fusión" entre buffers consecutivos renderizados para enviar a pantalla una imagen. Algo que de todas formas debería ser muy fácilmente realizable por el GK110 con su sobredimensionado hard de shaders, TMUs y ROPs, sin pérdida apreciable de rendimiento. No creo que hubiera problema para implementarlo en otros chips, pero de los de la familia de Kepler, el que iría más sobrado en sus dimensiones técnicas para hacer algo así sería precisamente el GK110.
-
Eso de los 80 fps no sé a qué leches se refieren, no tiene mucho sentido porque para empezar no hay monitores de 80 fps.
O se refieren a que se podrá poner un límite más bajo que 120 Hz (o 100 Hz, la mayoría de monitores de 120 Hz lo soportan también), para no disparar consumos o lo que sea, o se refieren a algo más exótico.
A ver si va a ser una forma de "forzar" 80 fps en un monitor de 60 Hz, overclock del monitor via tarjeta!!!" jajaja
En serio, me suena o a que es un "fake" de característica, o si es posible, a que quizás se consigan esos 80 FPS con algún método bizarro de pasar 80 fps -> 60 fps ya sea interpolando/mezclando frames o algo del estilo (el ratio sería 1,33X). Evitando el tearing pero haciendo a cambio alguna cosa "rara".
Lo de 80 fps en un monitor que dé más de 60 Hz, simplemente me parece una chuminada sin sentido que no tiene razón de exclusividad alguna (bueno, tampoco lo de "forzar" 80 Hz, pero igual si se hace vía "mezclado" de frames, podría "justificarse" algo esta exclusividad).
Por eso me extraño a mi,yo tengo uno de 75 hz pero de 80 no los conozco,a no ser que sea algo como el adaptable y que deja hasta 80 fps,a ver que sacan al final por que ultimamente tienen otro vsync que llaman suave,aunque da problemas con juegos como dead space 3,se engancha a 30 fps a veces.
Tambien habia pensado que en monitores de 120 hz si no da suficientes FPS ponerlo a 80 fps y mantener mas estables los frames.
Tambien en esa comparativa de juegos esta farcry 3 que aunque va mejor en Nvidia hace un uso alto de supersampling,al igual que Hitman y con eso las AMD quiza esten mas cerca,posiblemente ocurra igual en Sleeping dogs,pero falta por ver en configuraciones y resoluciones para poder jugar que suele cambiar algo la cosa.
saludos
-
Por eso me extraño a mi,yo tengo uno de 75 hz pero de 80 no los conozco,a no ser que sea algo como el adaptable y que deja hasta 80 fps,a ver que sacan al final por que ultimamente tienen otro vsync que llaman suave,aunque da problemas con juegos como dead space 3,se engancha a 30 fps a veces.
Tambien habia pensado que en monitores de 120 hz si no da suficientes FPS ponerlo a 80 fps y mantener mas estables los frames.
Tambien en esa comparativa de juegos esta farcry 3 que aunque va mejor en Nvidia hace un uso alto de supersampling,al igual que Hitman y con eso las AMD quiza esten mas cerca,posiblemente ocurra igual en Sleeping dogs,pero falta por ver en configuraciones y resoluciones para poder jugar que suele cambiar algo la cosa.
saludos
No, si Far Cry 3 precisamente es uno de los pocos títulos "gaming evolved" que no tiene supersampling sino MSAA como método principal de AA en su panel de control.
Lo que sí puede tener es supersampling en texturas transparentes, eso sí podría ser posible porque además a este juego le viene que ni al pelo, pero las opciones que AMD ha "metido" son técnicas de Ambient Oclussion y similares.
Los casos de Hitman, Sleeping Dogs y Sniper Elite son distintos, porque además de introducir un SSAA, que de por sí es muy costoso (para todas las gráficas, menos en las AMD por ancho de banda pero costoso al fin y al cabo), meten como "añadido" MLAA o similares via GPGPU e incluso creo que alguno de estos casos también MSAA.
Es algo absurdo porque una vez usado SSAA no debería meterse ese tipo de añadidos extra, pero todo es para justificar un rendimiento en "todo al máximo" que favorezca a gráficas con gran ancho de banda, aunque se estropee el rendimiento totalmente.
A mi jamás se me ocurriría usar simultáneamente SSAA+MSAA+MLAA, porque es absurdo.
-
Bueno,pues realmente no sé si esa tabla filtrada será real o no,o si lo es,con que drivers.Porque hasta última hora de la tarde de ayer,no salieron los drivers que dán soporte a TITAN.Es mas,muchos reviewers,han tenido los samples de pisapapeles todo el fin de semana por este motivo.También es cierto que se podian utilizar drivers "adaptados" pero logicamente,no es lo mismo.
No obstante,las filtraciones que me están llegando,no són desde luego las que parecían en un principio.Estariamos hablando de una gráfica entorno al 40-50% mas potente que la GTX 680.Depende de lo que se pase evidentemente,y eso sí,al parecer incluso mas silenciosa.
Si realmente rinde eso,que no está nada mal tampoco,no estariamos desde luego ante una come dual,pero siempre podemos pensar que Nvidia ha sido muy conservadora con los cloks,por el tema del TPD y demás,y pueden ocear bastante bien y compensar por ese lado.Pero también hay que ver lo dependiente de CPU que es,ya sabemos que el 99% de reviews són con equipos de stock,si realmente empieza a merecer la pena un PCI 3.0 etc..yo como siempre,a pesar de las reviews,no daré una opinión hasta tenerla en casa y ver realmente lo que dá de si..
Un saludo.