Nvidia Geforce Titan (gk110)
-
¡Esta publicación está eliminada! -
Y no solo eso, sino que en ciertos lares no hacen más que repetir constantemente que las GCN tienen un escalado superior a las Kepler (Ya sean HD6900 vs GTX670/680 o HD7800 vs GTX660) cuando wendigo demostro que no era así, en Kepler el aumento de rendimiento es mayor con OC, no sabemos por qué, pero todo apunta a algún tipo de cuello de botella en GCN que se hace evidente al subir frecuencia en comparación a Kepler, o a algún tipo de fallo de diseño a nivel electrónico. Pero bueno, así están las cosas (Cada día peor) :facepalm:.
Lo que ocurre con las kepler es que el boost no se mantiene,influyen demasiadas cosas pero si mantuviera fijos los 1300 rendirian ya muy bien,yo creo que algo falla en GCN cuando con un chip mayor y mas stream procesor no rinde como deberia,quiza es que AMD sabe hacer mejor tarjetas de 256 bits por que las ultimas generaciones con mas de 256 bits no le han rendido lo que se suponia por sus especificaciones,me refiero a la 2900 y 79x0,con las de 256 bits se le da mejor.
si comparamos DIE y SP de Titan es que las 7970 no tienen un DIE grande y deberia haber sido mas facil integrarlo con el proceso de 28nm,aunque no estuviera maduro,pero Titan con 550mm y 2688 SP no tiene mala eficiencia rendimiento watio.
saludos
-
Lo que ocurre con las kepler es que el boost no se mantiene,influyen demasiadas cosas pero si mantuviera fijos los 1300 rendirian ya muy bien,yo creo que algo falla en GCN cuando con un chip mayor y mas stream procesor no rinde como deberia,quiza es que AMD sabe hacer mejor tarjetas de 256 bits por que las ultimas generaciones con mas de 256 bits no le han rendido lo que se suponia por sus especificaciones,me refiero a la 2900 y 79x0,con las de 256 bits se le da mejor.
si comparamos DIE y SP de Titan es que las 7970 no tienen un DIE grande y deberia haber sido mas facil integrarlo con el proceso de 28nm,aunque no estuviera maduro,pero Titan con 550mm y 2688 SP no tiene mala eficiencia rendimiento watio.
saludos
Sí se mantienen, fjavil, sí, y te lo digo por experiencia.;D
Ahora, que si se calienta mucho la gpu en un juego o supera el TDP (todo solucionable con una curva de control de ventilación y subiendo el TDP al máximo), puede llegar a bajar, pero la oscilación más típica está entre dos valores con 13 MHz de diferencia, la frecuencia máxima a 1,175V y la segunda frecuencia del boost a 1,1625V.
O sea, que básicamente es estable. Tanto como para no molestarme en tener activado el perfil de ventilación que le había hecho a mi gráfica.
Lo que pasa es que hay mucha gente que o hace el OC mal (no sube el TDP o deja las memorias en "seco" o lo que es peor, las sube demasiado y tiene problemas de corrección de errores), o simplemente hacen las cuentas mal a la hora de calcular su OC y frecuencias (miran en GPU-z la información oficial de frecuencia base y boost, cuando en realidad ese boost sólo es el garantizado, el real en aplicación suele estar bien por encima de éste). El tema es que si usas las frecuencias boost oficiales que no las que realmente se aplican en funcionamiento, todo cálculo que se hace de "rendimientos" y mejora con OC son inválidos porque no se corresponden a la realidad, dando por tanto un error de base muy importante en todo cálculo de eficiencia y escabilidad (si usas el boost de GPU-z como valores del OC, automáticamente el desplazamiento que hagas para el OC es "mayor" en proporción a estas frecuencias que las reales, esto es, el % de OC calculado es más grande que el real, y por tanto esto dará como resultado unos cálculos de escalabilidad a la baja, siempre).
Por cierto, el último tipo de error lo he visto en varias reviews profesionales, así que evidentemente con ese tipo de información incorrecta circulando, no me extraña que se creen mitos como éste.
Mi GTX 670 tiene de specs 915/980 de base/boost oficiales, esto lo comparten TODAS las unidades del modelo, pero después cada uno según la calida de cada ASIC lleva más o menos lejos el boost, en mi caso la realidad es que mi GTX 670 funciona a 1058 MHz de serie, no a 980 MHz (y además clavados, sólo existe esa ligera oscilación de 13 MHz abajo por temperaturas).
El OC más alto siendo una "patapalo" es de 1215 MHz (por revisar, los últimos drivers de nvidia, de aquí a un par de meses y además en progreso me están tumbando el OC, será que los drivers de nvidia "no progresan" y como no aumentan el rendimiento, no ponen contra la cuerda los OCs, jajaja :ugly:), y no pasa de ahí, pero el boost que lees en GPUz no tiene nada que ver (1140 MHz).
Es que date cuenta, mi unidad es como es, pero otros con el mismo modelo se pone ella sóla en vez de a 1058 de serie a 1133 o algo por el estilo, sin problemas. Le haces un OC de 170 MHz y se va a 1300 (va por pasos el OC, no MHz a MHz), y según la información oficial del modelo el boot ha pasado de 980 MHz a 1150 MHz, para nada reflejando la realidad. Todo cálculo de escalibilidad y OCs hechos con estos datos no valen una mierda, hay que mirar la información de rendimiento en pantalla. En realidad las Kepler son bastante estables en sus frecuencias (excepto juegos de carga muyyy baja, lo cual se agradece en consumos), pero hay que conocer bien a cada unidad que pruebes porque su comportamiento es "independiente" de sus hermanas de modelo.
Se me olvidaba comentar la otra parte de tu comentarios… XD
La relación rendimiento/watio de Titan es muy buena, de hecho mejor que la de Little Kepler en no pocos casos:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/28.html
No compares stream processors entre marcas, la estructura en que se ordenan y funcionan es tan diferente que no es una comparación lógica, no tiene nada que ver el funcionamiento de un SMX de Kepler con un CU de GCN.
El tamaño de die de Tahiti, que no sé qué le pasa a la gente con tanto "es gama alta", es casi igual al del GK104, son 300mm2 escasos vs unos 345mmm2. O sea, que la diferencia está en algo así como el 15%, y fácilmente explicable sólamente con el tema de los controladores de memoria. De hecho algún chip anterior de AMD de 256 bits no andaba lejos del tamaño de Tahiti, o sea que realmente no se "cambió" las normas de diseño de chips ni de lejos. el Gk110 es un animal de distinto pelaje, esos 550 mm2 son la marca de la "casa" de nvidia cuando se pone seria, aunque sigue sin ser el chip más grande (en die) de nvidia. Así que evidentemente el precio no tiene que ver siquiera ni con la calidad del producto ni costes (hubo buses de 512 bits tirados de precio).
Yo a GCN no la veo escalar bien pero por los datos de rendimiento. Se ve en cualquier gráfica de rendimiento, en reviews, etc, cuando de pronto ves que modelos como la 7970 y la 7970 GHz casi empatan en puntuación, cuando deberían mantener consistentemente una diferencia del 13,5%. Cuando ves esto sabes que algo falla.
Yo creo que el GK100 original si "fuera necesario" habría salido para gráficas originalmente, aunque fuera a trancas y barrancas. Porque en ese momento la producción de 28 nm, además de inmadura, y por tanto nada adecuada para un chip así de grande (muchos descartes), era limitada en número de obleas producidas. Es posible que incluso los precios altísimos originales de AMD no sólo sean por "ánimo de lucro", sino para evitar una demanda demasiado alta de gráficas que no pudieran cubrir. Y ya de paso exprimían el limón, claro. Pero vamos, que el alto coste por oblea de 28 nm, su baja producción, y los problemas iniciales añadidos podrían estar detrás de la decisión de vender a un precio muy alto (aunque no fuera el único factor).
Ahora que se supone que ya no hay problema alguno de producción, que el número de obleas que TSMC puede producir es mucho mayor y que no hay tanto problema de descartes, es ahora cuando se podrían bajar precios con facilidad, pero bueno, una vez acomodados en un rango de precios se ve que les cuesta bajarlos.
PD: Y si aún así piensas que el límite de TDP te evita conseguir lo que quieres en frecuencias, lo tienes fácil, se modifica la BIOS para subirlo hasta "el infinito y más allá", casi, si quieres subes algo los voltajes, y subes más y sin trabas de TDP la Kepler en cuestión.
-
si comparamos DIE y SP de Titan es que las 7970 no tienen un DIE grande y deberia haber sido mas facil integrarlo con el proceso de 28nm,aunque no estuviera maduro,pero Titan con 550mm y 2688 SP no tiene mala eficiencia rendimiento watio.
Hombre, en el sentido tamaño de die/rendimiento las Titan son claramente inferiores al GK104 (no así en rendimiento/w que parecen incluso superiores al GK104), pues el tamaño de die es casi el doble, pero el rendimiento no lo es, cosa que se debe claramente a que es un chip todoterreno con circuitería extra de doble precisión y otras funciones de computación que el GK104 no tiene (Hyper-Q, GPU Direct, Paralelismo dinamico…) ni necesita. Algo parecido sufren las HD7900, aunque no se exactamente que extras tienen en ese sentido las HD7900 respecto a las HD7800 (Aparte de los controladores de memoria extras y los cores GCN extras), pero las relaciones rendimiento/w y rendimiento/tamaño de die son peores en las HD7900 respecto a las HD7800.
-
Wooouuuhh, cuanto movimiento por aquí y cuanto tiempo sin entrar :D. Por lo que se ve hay muchas caras conocidas que da gusto volver leer con cierta libertad.
ElP3 ansioso estoy leer tu review :sisi:
Saludos.
-
Wooouuuhh, cuanto movimiento por aquí y cuanto tiempo sin entrar :D. Por lo que se ve hay muchas caras conocidas que da gusto volver leer con cierta libertad.
ElP3 ansioso estoy leer tu review :sisi:
Saludos.
Buenas Txema…aquí estamos...ya queda menos,Quizás el Martes o el Miércoles tengamos algo de TITAN.
Bienvenido de nuevo..;)
Un saludo.
-
Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.
Saludos!
-
Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.
Saludos!
Hombre, Txemote, tú por aquí. Bienvenido.
Y sí, precio estratosférico para una muy buena gráfica, que si saliera a 700€ (carísima de todas formas) ya veríamos a muchos salivando para hacerse con una pero, vamos, a la orden de "ya". Si saliera a 500-600€ pondría en evidencia al resto de mercado de gráficas monogpu, obligando a un reajuste de precios a la baja.
Lo cual sería ideal para el consumidor, pero ya sabemos que el juego no va así, no en esta generación mientras nvidia lo tenga fácil para vender.
-
Sí se mantienen, fjavil, sí, y te lo digo por experiencia.;D
Ahora, que si se calienta mucho la gpu en un juego o supera el TDP (todo solucionable con una curva de control de ventilación y subiendo el TDP al máximo), puede llegar a bajar, pero la oscilación más típica está entre dos valores con 13 MHz de diferencia, la frecuencia máxima a 1,175V y la segunda frecuencia del boost a 1,1625V.
O sea, que básicamente es estable. Tanto como para no molestarme en tener activado el perfil de ventilación que le había hecho a mi gráfica.
Lo que pasa es que hay mucha gente que o hace el OC mal (no sube el TDP o deja las memorias en "seco" o lo que es peor, las sube demasiado y tiene problemas de corrección de errores), o simplemente hacen las cuentas mal a la hora de calcular su OC y frecuencias (miran en GPU-z la información oficial de frecuencia base y boost, cuando en realidad ese boost sólo es el garantizado, el real en aplicación suele estar bien por encima de éste). El tema es que si usas las frecuencias boost oficiales que no las que realmente se aplican en funcionamiento, todo cálculo que se hace de "rendimientos" y mejora con OC son inválidos porque no se corresponden a la realidad, dando por tanto un error de base muy importante en todo cálculo de eficiencia y escabilidad (si usas el boost de GPU-z como valores del OC, automáticamente el desplazamiento que hagas para el OC es "mayor" en proporción a estas frecuencias que las reales, esto es, el % de OC calculado es más grande que el real, y por tanto esto dará como resultado unos cálculos de escalabilidad a la baja, siempre).
Por cierto, el último tipo de error lo he visto en varias reviews profesionales, así que evidentemente con ese tipo de información incorrecta circulando, no me extraña que se creen mitos como éste.
Mi GTX 670 tiene de specs 915/980 de base/boost oficiales, esto lo comparten TODAS las unidades del modelo, pero después cada uno según la calida de cada ASIC lleva más o menos lejos el boost, en mi caso la realidad es que mi GTX 670 funciona a 1058 MHz de serie, no a 980 MHz (y además clavados, sólo existe esa ligera oscilación de 13 MHz abajo por temperaturas).
El OC más alto siendo una "patapalo" es de 1215 MHz (por revisar, los últimos drivers de nvidia, de aquí a un par de meses y además en progreso me están tumbando el OC, será que los drivers de nvidia "no progresan" y como no aumentan el rendimiento, no ponen contra la cuerda los OCs, jajaja :ugly:), y no pasa de ahí, pero el boost que lees en GPUz no tiene nada que ver (1140 MHz).
Es que date cuenta, mi unidad es como es, pero otros con el mismo modelo se pone ella sóla en vez de a 1058 de serie a 1133 o algo por el estilo, sin problemas. Le haces un OC de 170 MHz y se va a 1300 (va por pasos el OC, no MHz a MHz), y según la información oficial del modelo el boot ha pasado de 980 MHz a 1150 MHz, para nada reflejando la realidad. Todo cálculo de escalibilidad y OCs hechos con estos datos no valen una mierda, hay que mirar la información de rendimiento en pantalla. En realidad las Kepler son bastante estables en sus frecuencias (excepto juegos de carga muyyy baja, lo cual se agradece en consumos), pero hay que conocer bien a cada unidad que pruebes porque su comportamiento es "independiente" de sus hermanas de modelo.
Se me olvidaba comentar la otra parte de tu comentarios… XD
La relación rendimiento/watio de Titan es muy buena, de hecho mejor que la de Little Kepler en no pocos casos:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/28.html
No compares stream processors entre marcas, la estructura en que se ordenan y funcionan es tan diferente que no es una comparación lógica, no tiene nada que ver el funcionamiento de un SMX de Kepler con un CU de GCN.
El tamaño de die de Tahiti, que no sé qué le pasa a la gente con tanto "es gama alta", es casi igual al del GK104, son 300mm2 escasos vs unos 345mmm2. O sea, que la diferencia está en algo así como el 15%, y fácilmente explicable sólamente con el tema de los controladores de memoria. De hecho algún chip anterior de AMD de 256 bits no andaba lejos del tamaño de Tahiti, o sea que realmente no se "cambió" las normas de diseño de chips ni de lejos. el Gk110 es un animal de distinto pelaje, esos 550 mm2 son la marca de la "casa" de nvidia cuando se pone seria, aunque sigue sin ser el chip más grande (en die) de nvidia. Así que evidentemente el precio no tiene que ver siquiera ni con la calidad del producto ni costes (hubo buses de 512 bits tirados de precio).
Yo a GCN no la veo escalar bien pero por los datos de rendimiento. Se ve en cualquier gráfica de rendimiento, en reviews, etc, cuando de pronto ves que modelos como la 7970 y la 7970 GHz casi empatan en puntuación, cuando deberían mantener consistentemente una diferencia del 13,5%. Cuando ves esto sabes que algo falla.
Yo creo que el GK100 original si "fuera necesario" habría salido para gráficas originalmente, aunque fuera a trancas y barrancas. Porque en ese momento la producción de 28 nm, además de inmadura, y por tanto nada adecuada para un chip así de grande (muchos descartes), era limitada en número de obleas producidas. Es posible que incluso los precios altísimos originales de AMD no sólo sean por "ánimo de lucro", sino para evitar una demanda demasiado alta de gráficas que no pudieran cubrir. Y ya de paso exprimían el limón, claro. Pero vamos, que el alto coste por oblea de 28 nm, su baja producción, y los problemas iniciales añadidos podrían estar detrás de la decisión de vender a un precio muy alto (aunque no fuera el único factor).
Ahora que se supone que ya no hay problema alguno de producción, que el número de obleas que TSMC puede producir es mucho mayor y que no hay tanto problema de descartes, es ahora cuando se podrían bajar precios con facilidad, pero bueno, una vez acomodados en un rango de precios se ve que les cuesta bajarlos.
PD: Y si aún así piensas que el límite de TDP te evita conseguir lo que quieres en frecuencias, lo tienes fácil, se modifica la BIOS para subirlo hasta "el infinito y más allá", casi, si quieres subes algo los voltajes, y subes más y sin trabas de TDP la Kepler en cuestión.
No se yo todavia no he probado una kepler,queria una con GK100 o Gk110 pero con estos precios creo que seguire esperando,pero mucha gente decia eso de que no mantiene la frecuencia estable ya que depende del consumo y de la temperatura,tambien de la aplicacion segun dicen en algun juego el boost sube mas que en otros,pero yo no lo pude comprobar,aunque si parece que aunque sean graficas mismo modelo si sale buena alcanza mas boost y en configuraciones SLI es dificil que dos alcancen frecuencias iguales,aunque para eso les meterian el control por hatdwatre de MS.
La Titan si que me parece eficiente,aunque claro ha salido muchos meses despues que el GK104 y supongo que ya debe estar mucho mas maduro el proceso de 28nm,incluso ya deben tener casi preparado un GK114 o como quieran llamar al refresco del GK104,debe ser facil que sea mas eficiente que el GK104 y les permita meter mas SP,incluso mas frecuencia manteniendo consumos,lo que esta por verse es si les interesa sacarlo o prefieren estirar el GK104 unos meses mas.
pero lo del TDP lo decia por que hay gente que se dedica al OC y prefieren no subir demasiado el power target,aunque tambien tienen 2 tarjetas o mas,si una es peor supongo que limitara a las otras.
Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.
Saludos!
Un saludo txema si no es por el avatar ni te conozco,al final nos vemos todos por aqui a ver si se anima esto cuando haya Titanes,me da que esta ni la huelo con esos precios,ya podian sacar una con 3GB aunque sea como el k20 y a un precio mas normal.
Hombre, en el sentido tamaño de die/rendimiento las Titan son claramente inferiores al GK104 (no así en rendimiento/w que parecen incluso superiores al GK104), pues el tamaño de die es casi el doble, pero el rendimiento no lo es, cosa que se debe claramente a que es un chip todoterreno con circuitería extra de doble precisión y otras funciones de computación que el GK104 no tiene (Hyper-Q, GPU Direct, Paralelismo dinamico…) ni necesita. Algo parecido sufren las HD7900, aunque no se exactamente que extras tienen en ese sentido las HD7900 respecto a las HD7800 (Aparte de los controladores de memoria extras y los cores GCN extras), pero las relaciones rendimiento/w y rendimiento/tamaño de die son peores en las HD7900 respecto a las HD7800.
Yo creo que la Titan va a rendir muy bien para lo que es,el GK104 rinde mucho,viene a frecuencias altas con Boost y no es comun que un Chip pensado para gama performance supere por tanto a la gama alta anterior,el GK110 parece mas para alta resolucion,juegos muy pesados y exigentes,de todas formas ya deberian tener finalizado el diseño de un GK114 o GK204 o como quieran llamar al refresco del GK104 y posiblemente sea incluso mas eficiente que el GK110,por que ya debe estar mas maduro el proceso de fabricacion,ademas si hace eso que suele decir Nvidia de alineacion inteligente de transistores,deberian mejorar algo la arquitectura,tambien decia que las 7800 parecen tener mejor relacion rendimiento consumo que las 7900 y por eso decia que parece que a AMD se le da mejor hacer esas tarjetas,aunque parece que esas las fabrica GF,no se si tambien hay algunas de TSMC,no se si eso influye o no.
Saludos
-
Hombre, Txemote, tú por aquí. Bienvenido.
Y sí, precio estratosférico para una muy buena gráfica, que si saliera a 700€ (carísima de todas formas) ya veríamos a muchos salivando para hacerse con una pero, vamos, a la orden de "ya". Si saliera a 500-600€ pondría en evidencia al resto de mercado de gráficas monogpu, obligando a un reajuste de precios a la baja.
Lo cual sería ideal para el consumidor, pero ya sabemos que el juego no va así, no en esta generación mientras nvidia lo tenga fácil para vender.
Ya veo que estamos por aquí muchos conocidos , así da gusto, que nivelazo :D.
Sip, esta Titan es muy llamativa, pero el precio… se me escapa. Es una pena lo que esta pasando ultimamente con el precio de las gráficas, llevamos mucho tiempo sin reajustes. Los nuevos modelos van saliendo y el precio va subiendo de un lanzamiento a otro en vez de reajustarse :wall:. En otros tiempos los foros se inundarían de Titanes por 500-550€ ( relegando a la GTX680 a los 350€) pero que le vamos a hacer...
Un saludo txema si no es por el avatar ni te conozco,al final nos vemos todos por aqui a ver si se anima esto cuando haya Titanes,me da que esta ni la huelo con esos precios,ya podian sacar una con 3GB aunque sea como el k20 y a un precio mas normal.
Saludos
Buenas fjavi, tengo un nick diferente de hace ya años, a ver si me lo pueden cambiar :D. La verdad es que hacía tiempo que no andaba por Hardlimit y tras contarme un pajarito el nivelazo que había ultimamente he decidido pasarme. Además no en todos los foros se va a poder ver una review casera de la famosa Titan :D.
Saludos.
-
Buenas fjavi, tengo un nick diferente de hace ya años, a ver si me lo pueden cambiar :D. La verdad es que hacía tiempo que no andaba por Hardlimit y tras contarme un pajarito el nivelazo que había ultimamente he decidido pasarme. Además no en todos los foros se va a poder ver una review casera de la famosa Titan :D.
Saludos.
A mi me cambiaron tambien el nick,tenia otro al registrarme,me lo cambiaron por el mio,lo de la reviews es lo que esperamos muchos,por que esas titan tienen pinta de pedir mucho equipo,sobretodo con dos o tres tarjetas,por eso a ver como tiran en un equipo de ELP3,por que alguna de las reviews que se han visto sacan lo mismo a 1600x1200 que a 1920x1200 y a 2560x1600,le da lo mismo con dos o con tres y es raro por que en Hitman algo se debe notar pasar de 2 a 3 y sobretodo en resoluciones 2560x1600,digo esto
GeForce GTX Titan 3-way SLI and Multi monitor review - DX11: Hitman Absolution
veo resultados muy raros,ademas tampoco cuadra que dos 680 le den menos con un SLI de 680 que con una Titan a 1920x1080,le tiran de pena los SLI a en Hitman al de guru3D,por eso toca esperar a ver aqui como van.
Saludos
-
Como anécdota de las reviews de guru3D,comentaré una muy graciosa.
Este mismo señor,cuando salió la 5870,hizo una prueba en un nehalmen subido a 4,2GHZ creo recordar,vamos un 920.Y puso 2 5870 en CF.Bueno,pues para demostrar que la plataforma hacía cuello de botella a tal "dispendio gráfico" de la época,tuvo la genial idea(mas bien ni zorra idea) de poner como ejemplo el COD world at war…Efectivamente,en todas las resoluciones que probó,desde 720p hasta 1200p,le dió el mismo resultado..90fps..y se quedó tan ancho diciendo que el 1366,que por otra parte acababa praticamente de salir,era insuficiente para un CF de estas gráficas.
Lo que este señor no sabía,y parece mentira,es que todos lo COD de la época,iban capados a 90fps,y mediante una línea de comandos,desbloquebas ese framerate.Obviamente,sin él,se obtenian mas de 150 fps...
A pesar de todo,nunca tuvo el valor de reconocer el patón que metió.Un 1366,sigue siendo válido,hasta para las gráficas de esta primera generación de 28nm por si alguien lo duda...otra cosa,es que si compras una TITAN,lo normal es que no tengas esa plataforma..pero vamos,que yo veo tirar aún bastante bien los CF y SLI de 7970 y 680 bajo ese 1366..
Un saludo.
-
Como anécdota de las reviews de guru3D,comentaré una muy graciosa.
Este mismo señor,cuando salió la 5870,hizo una prueba en un nehalmen subido a 4,2GHZ creo recordar,vamos un 920.Y puso 2 5870 en CF.Bueno,pues para demostrar que la plataforma hacía cuello de botella a tal "dispendio gráfico" de la época,tuvo la genial idea(mas bien ni zorra idea) de poner como ejemplo el COD world at war…Efectivamente,en todas las resoluciones que probó,desde 720p hasta 1200p,le dió el mismo resultado..90fps..y se quedó tan ancho diciendo que el 1366,que por otra parte acababa praticamente de salir,era insuficiente para un CF de estas gráficas.
Lo que este señor no sabía,y parece mentira,es que todos lo COD de la época,iban capados a 90fps,y mediante una línea de comandos,desbloquebas ese framerate.Obviamente,sin él,se obtenian mas de 150 fps...
A pesar de todo,nunca tuvo el valor de reconocer el patón que metió.Un 1366,sigue siendo válido,hasta para las gráficas de esta primera generación de 28nm por si alguien lo duda...otra cosa,es que si compras una TITAN,lo normal es que no tengas esa plataforma..pero vamos,que yo veo tirar aún bastante bien los CF y SLI de 7970 y 680 bajo ese 1366..
Un saludo.
Si que fue un fallo decir que el 920 hacia cuello botella y no darse cuenta de que el juego va capado de fps.
Aqui ponen otra de las pruebas o reviews donde se ve la jugabilidad,la 690 parece que va muy bien a pesar de ser un SLI,por lo menos en Hitman va bien sin MS.
Nvidia's GeForce GTX Titan reviewed - The Tech Report - Page 11con esa configuracion Hitman debe pedir bastante y la 7970 y la 680 deben ir a pocos FPS,pero la titan y la 690 dan una linea mas plana sin tanto altibajo.
saludos
-
Si que fue un fallo decir que el 920 hacia cuello botella y no darse cuenta de que el juego va capado de fps.
Aqui ponen otra de las pruebas o reviews donde se ve la jugabilidad,la 690 parece que va muy bien a pesar de ser un SLI,por lo menos en Hitman va bien sin MS.
Nvidia's GeForce GTX Titan reviewed - The Tech Report - Page 11con esa configuracion Hitman debe pedir bastante y la 7970 y la 680 deben ir a pocos FPS,pero la titan y la 690 dan una linea mas plana sin tanto altibajo.
saludos
Yo creo que en esa review lo que más destaca es que la HD7970 GHz da bastante más rendimiento que la GTX680, pero sus gráficas de frametime son lamentables. La GTX690 y los SLIs de Kepler, en ese sentido, tienen un rendimiento sorprendente, apenas parece que sean configuraciones multiGPU, aunque hay casos donde en la Titan se nota que las latencias son mejores gracias a ser monoGPU, pero aun así, los resultados de las Kepler en multiGPU son muy buenos, todo lo contrario a los CF.
-
Yo lo que he visto ya en varias reviews que han destinado un poco mas de tiempo al OC.Es que con aproximadamente un +130MHZ,se acerca muy peligrosamente al rendimiento de la GTX 690.
Hablamos de quedarse a un par de frames … osea,que escala muy bien y tiene potencial.Subir +130MHZ y ganar un 13% es lo suyo..supongo que para benchs,podría llegar a alcanzarse el 20%..quizás mas..también hay planes de que el voltaje se pueda desbloquear prontamente a 1.25V en vez lo 1.20v que permite hasta ahora.
Ya digo,cada vez me gusta mas la gráfica...el problema ya sabemos cual es...
Un saludo.
-
Yo creo que en esa review lo que más destaca es que la HD7970 GHz da bastante más rendimiento que la GTX680, pero sus gráficas de frametime son lamentables. La GTX690 y los SLIs de Kepler, en ese sentido, tienen un rendimiento sorprendente, apenas parece que sean configuraciones multiGPU, aunque hay casos donde en la Titan se nota que las latencias son mejores gracias a ser monoGPU, pero aun así, los resultados de las Kepler en multiGPU son muy buenos, todo lo contrario a los CF.
El caso de Hitman Absolution es casi de juzgado de guardia, es un juego donde sus "optimizaciones" para DX11 (no hay que olvidar que no deja de ser un port) sirven única y exclusivamente para que las gráficas AMD puedan estar algo por encima de las de nvidia, a base del uso masivo de ciertas técnicas 3D (además la mayoría en realidad ni siquiera son técnicas DX11 en sí), siendo un bastante mal (o bueno, depende de lo que se busque) representante de un juego "Gaming Evolved".
No puede ser que con todo a tope básicamente hasta las monogpu de AMD más potentes se ahoguen.
Dicho esto, este juego además parece tener también un tope (cap) en los fps que puede generar EN EL BENCHMARK, y no me extrañaría que se aplicara además sólo en las nvidia (XD). Parece que el tope no se aplica durante el juego, lo cual lo hace bastante sospechoso (¿pones un tope en el benchmark de un juego pero no en el juego en sí, que es donde puede tener sentido por temas de temporización y demás de los eventos del juego?). Si encuentro donde lo leí ya lo pondré por aquí, era en una review con sistemas multigpu y Titan por el medio, donde se encontraban con un tope de 90 fps, creo. Se extrañaron y preguntaron a la gente de nvidia si sabían algo del tema, y la contestación fue que en el juego la tasa de frames no estaba capada, que iba mucho más alto.
A AMD le está funcionando muy bien su plan Gaming Evolved, ya que muchos de los títulos que apoya llevan benchmarks que hacen que se conviertan en pruebas elegidas por muchos usuarios y reviews, por facilidad de uso, y el uso de ciertas técnicas que se pueden considerar en exceso (un ejemplo que he puesto más de una vez, es el uso ridículo de SSAA+MSAA+FXAA/MLAA, que se ha hecho en algún título, con por lo menos 2 de esos factores, y creo que había uno concreto que llegaba a usar las tres técnicas a la vez), pero que dichas técnicas "favorecen" a AMD de muy distintas formas.
En realidad si nos fijamos en los últimos Gaming Evolved podemos ver el patrón de benchmark interno más opciones salvajes de GI+HDAO+SSAA (y demás técnicas que AMD gusta de poner):
Sleeping Dogs.
Hitman Absolution.
Sniper Elite V2.
Dirt Showdown.
Etc.Todos tienen benchmark Y combinan el uso de técnicas muy exigentes en ancho de banda y muy adaptadas a la arquitectura de GCN, tanto sea por la implementación de la técnica (GI, HDAO) como por la propia técnica en sí (SSAA).
Estos títulos suelen ser importantes, pero no son lo que realmente se llaman AAA, son ports en la mayoría de casos y las ventas en PC quizás no esperan ser demasiado altas (excepto con la propia ayuda del acuerdo de venta de gráficas con licencias del juego). Esto es, que su mercado principal son las consolas.
Si nos fijamos en los auténticos AAA, ese tipo de juego que es esperado desde hace tiempo, se comenta antes mucho, y que intentan mostrar las técnicas más modernas en rasterizado para PC, tenemos a dos auténticos peces gordos, AAA:
Far Cry 3.
Crysis 3.
Ambos juegos son indudablemente AAA, se habló mucho antes de su lanzamiento de cómo serían, qué novedades gráficas tendrías. ambos tienen una buena expectativa de ventas en todas las plataformas, pero lo más importante, tienen un pie muy sólido en el mercado del PC, donde su motor gráfico vió su nacimiento y plataforma donde se sigue afinando dicho motor.
Ninguno trae un benchmark integrado y curiosamente ambos rinden igual o ligeramente mejor en las nvidia que en las AMD.
O sea, que hay que tener mucho cuidado con las reviews cuando se cogen ciertas pruebas un tanto capciosas, o se rebalancea el setup con juegos igual de "descaradamente" pronvidia (siempre me viene a la cabeza el Lost Planet 2, pero en parte es injusto porque más allá de su uso de teselación muy a fondo, no se conoce de "intentos de boicoteo" a AMD y su rendimiento, que sus teseladores sean lentos no es culpa de CAPCOM), o se está haciendo mal. Porque después cuando juegues a otros juegos menos populares (porque no tienen audiencia o simplemente porque no tienen benchmark integrado) en reviews y demás, igual resulta que la imagen que te llevabas con esas reviews puede estar distorsionada (reviews de sites e usuarios y foros, ojo).
Yo es que cada vez que veo una prueba de Hitman o de Dirt Showdown me suelta un tufo tremendo sus resultados, son muy cantosos.
Que de todas formas, incluso a pesar de eso el tema de las latencias no lo lleva tan bien siquiera las AMD en "sus pruebas":
http://www.tomshardware.com/reviews/geforce-gtx-titan-performance-review,3442-6.html
Tomshardware tiene un sistema derivado pero suficientemente distinto de medir latencias (la oleada que ha creado en sites de reviews TechReport, por cierto, y "ninguneada" por mucha gente por incómodos resultados), donde en vez de medir las latencias y buscar sólo las latencias "altas" por considerarlas las problemáticas (es acertado en este punto), hace otra cosa distinta:
Mide la diferencia entre latencias de frames consecutivos, y a través de este valor y con métodos estadísticos (uso de percentiles) comprueba si son buenas o no las latencias.
Creo que ellos mismos no tienen afinado el sistema, por varias razones:
El uso de percentiles como el 75º percentil no tiene demasiado sentido, porque al hablar de frames y sus latencias esto quiere decir que busca la latencia de "corte" que define a las latencias más altas de ese valor que ocurre en 1/4 de los frames totales.
Esto es, que si tienes 60 fps por imagen posiblemente estás hablando de hacer una criba y selección de los 15 fps más lentos en ese segundo (no es exactamente eso, pero para simplificar lo dejo así). Son demasiados frames, es cierto que es un valor que puede tener algo de sentido, pero no debería estar demasiado lejos de la media, y sobre todo, no cazaría los problemas de latencia, donde no hace falta que sean tantos frames por segundo los registrados, sino que se cacen los frames más molestos.
el 95º percentil tiene algo más de sentido, pero de todas formas es un percentil muy generoso, ya que aún así muestrea 1/20 del total de frames renderizados cogiendo los más "lentos" (corte a partir del cual éstos aparecen), o sea, que puede tocar perfectamente a varios frames por segundo.
Yo abogo tanto por el uso del 99º percentil así como percentiles incluso más altos como el 99,5 percentil y similares, porque si estás jugando y cada 3-4 segundos tienes un pequeño parón por culpa de un frame de 60 ms (posiblemente no rompe del "todo" la ilusión de animación, pero está al borde de ser directamente stuttering), la experiencia es horrible, y percentiles más bajos pueden no decir nada sobre el tema.
Bueno, aún a pesar de todo este rollo, en esa review de Toms y con los datos que ellos consiguen, se ve que Hitman no va del todo fino en el hard de AMD, porque tiene una latencia de más de 10 ms en una resolución muy normalita (1080p) y ya en 1600p la cosa se dispara por encima de 20 ms.
Yo a estas latencias las consideraría muy peligrosas, y creo que en esto en Toms aún no tienen pulido su metodología nueva no ya por el tema de percentiles usados, sino porque lo que ellos miden son las diferencias entre latencias consecutivas (que creo que es un buen método para cazar el principal problema de los sistemas multigpu, cuándo se vuelve molesto).
Y por tanto, al ser una diferencia de latencia, aunque ellos puedan considerarlas "bajas" no lo son tanto, porque para ir a 60 fps necesitas latencias por frame de 16,6 ms, así que si tienes una diferencia de latencia entre frames de 10 ms, excepto que estemos hablando de generar frames en 2-3 ms, que va a ser que no, realmente estarás metiendo frames intermedios (diferencia de latencias) por debajo de esos 60 fps. O incluso mucho peor.
Una extrapolación no del todo correcta, en el caso de Hitman sería interpretar los fps medios y añadirle el 95 percentil en forma de latencia:
Con la 7970: 67 fps-> 14,9 ms. –> latencia media + dif. latencia 95º percentil = 14,9 ms + 11,1 fps = 26 ms. --> fps "aproximados" 95º percentil = 38,5 fps.
O sea, un valor bastante "bajo" de fps puntuales en algunos frames. He de decir que este cálculo aproximado es positivo para el resultado de la 7970, ya que en la realidad apostaría a que esas diferencias de latencias del 95º percentil se encuentran entre frames que se generan en las zonas del bench más lentas en rendimiento. O sea, que en realidad se está haciendo un favor con este cálculo con los fps medios.
Ya el tema de los 20 ms de diferencia de latencias consecutivas, vamos, eso es que tiene que ser malo para la jugabilidad sí o sí.:ugly:
Este problema de latencias consecutivas dispares se ve que aparece bastante en la 7970 GHz aún siendo una monogpu, y que por ejemplo la Titan no lo tiene apenas frente a la GTX 690. Lo cual apunta a una de las ventajas principales de la Titan. Rendirá algo menos, pero de forma más sólida. Señalar que la Titan parece que necesita pulido de drivers, porque a veces tiene algún mínimo o latencias más altas que su "inferior" hermana, la GTX 680. Lo cual apunta a que se podrá optimizar casi seguro su rendimiento en breve, que los drivers actuales para Titan aún están un poco verdes en afinar sus diferencias con respecto a las otras Kepler.
-
Yo creo que en esa review lo que más destaca es que la HD7970 GHz da bastante más rendimiento que la GTX680, pero sus gráficas de frametime son lamentables. La GTX690 y los SLIs de Kepler, en ese sentido, tienen un rendimiento sorprendente, apenas parece que sean configuraciones multiGPU, aunque hay casos donde en la Titan se nota que las latencias son mejores gracias a ser monoGPU, pero aun así, los resultados de las Kepler en multiGPU son muy buenos, todo lo contrario a los CF.
Es que al final usa configuraciones que no sirven para jugar ni en la 680 ni tampoco en la 7970,meter una resolucion de 2560x1600 con AA extremo en Sleeping dogs debe ir de culo,el Hitman igual mete configuraciones y resoluciones que no se pueden jugar ni con 680 ni 7970,osea que quiza asi la 7970 saque mas diferencia de fps pero es injugable para las dos.
Esos juegos patrocinados por AMD piden bastante,por eso al final cuando se meten configuraciones que sirvan para jugar a 60 fps no creo que haya esas diferencias,de todas formas en algun caso el CF tiene latencias bajas y se ve muy ancha la linea de frames.
Yo lo que he visto ya en varias reviews que han destinado un poco mas de tiempo al OC.Es que con aproximadamente un +130MHZ,se acerca muy peligrosamente al rendimiento de la GTX 690.
Hablamos de quedarse a un par de frames … osea,que escala muy bien y tiene potencial.Subir +130MHZ y ganar un 13% es lo suyo..supongo que para benchs,podría llegar a alcanzarse el 20%..quizás mas..también hay planes de que el voltaje se pueda desbloquear prontamente a 1.25V en vez lo 1.20v que permite hasta ahora.
Ya digo,cada vez me gusta mas la gráfica...el problema ya sabemos cual es...
Un saludo.
La grafica creo que nos gusta a la mayoria,no asi el precio pero como tarjeta yo creo que va a destacar y mas a esas resoluciones de 2560x1600,incluso tendran que mejorar por driver,una lastima que no la hayan llamado 780 con precio de esa gama y aunque fuera con 3 Gb,por que se venderian como churros.
saludos
-
Wooouuuhh, cuanto movimiento por aquí y cuanto tiempo sin entrar :D. Por lo que se ve hay muchas caras conocidas que da gusto volver leer con cierta libertad.
ElP3 ansioso estoy leer tu review :sisi:
Saludos.
Buenas Txema, un placer leerte por aquí… !!!! Somo muchos los que hemos vuelto a nuestras "raices....xD. Seguro que te arreglan lo del nick, Me ha pasado como a fjavi, lo primero que he visto ha sido tu avatar.....!!
Rebienvenido ;).
Un Saludo..
A mi me cambiaron tambien el nick,tenia otro al registrarme,me lo cambiaron por el mio,lo de la reviews es lo que esperamos muchos,por que esas titan tienen pinta de pedir mucho equipo,sobretodo con dos o tres tarjetas,por eso a ver como tiran en un equipo de ELP3,por que alguna de las reviews que se han visto sacan lo mismo a 1600x1200 que a 1920x1200 y a 2560x1600,le da lo mismo con dos o con tres y es raro por que en Hitman algo se debe notar pasar de 2 a 3 y sobretodo en resoluciones 2560x1600,digo esto
GeForce GTX Titan 3-way SLI and Multi monitor review - DX11: Hitman Absolution
veo resultados muy raros,ademas tampoco cuadra que dos 680 le den menos con un SLI de 680 que con una Titan a 1920x1080,le tiran de pena los SLI a en Hitman al de guru3D,por eso toca esperar a ver aqui como van.
Saludos
Precisamente el otro día, estrañado por los resultados de esa review, y mirando si me merece la pena cambiar mi trio por un par de Esas TITAN :D:D .
Pasé unas pruebas en mi equipo ya que poseo esa resolución 5760 x 1080. A algunos titulos de los que ahí se mencionan. Lo que no entiendo es como tienen ese procesador a medias, con tan poco Oc, y unas memorias a 1600. Eso sí, para la placa base que han utilizado han tenido luces…...... :).
Su equipo:
Mainboard: MSI Big Bang XPower II X79 Review de casa
Processor: Core i7 3960 Extreme @ 4.6 GHz
Graphics Cards: GeForce GTX Titan (NVIDIA reference) x3
Memory: 8GB (4x 2048 MB) DDR3 @ 1600 MHz | X79
Power Supply Unit: 1200 Watt (Platinum)
Monitor: Dell U2312 x3 - up-to 5760x1080
El mio:
Mainboard: MSI Big Bang XPower II X79
Processor: Core i7 3930K @ 4.9 GHz
Graphics Cards: GeForce GTX 670 OC 1200/7400 x3
Memory: 16GB (4x 4048 MB) DDR3 @ 2400 MHz CL9
Power Supply Unit: 1250 Watt
Monitor: Dell U2312 x3 - up-to 5760x1080
Todas las pruebas estan puestas con las mismas opciones que aparecen en la pagina, a excepción del Medal of Honor Warfighter, que a 4x MSAA se comia toda mi vram. Así que lo puse en 2x.
Para medir el framerate utilizé el fraps, en modo benchmark con 10 minutos de juego.FAR CRY 3
Avg: 57.320 - Min: 30 - Max: 84MOHW
Avg: 89.344 - Min: 56 - Max: 102- HMA
Avg: 74.673 - Min: 11 - Max: 91bf3
Avg: 77.970 - Min: 26 - Max: 103Como podreis ver, con resultados tan dispares, no consigo hacerme una idea de si me merece la pena cambiar por 2 Titanes, en principio no me merece la pena, pero esa review, está un poco echa de aquella manera, o los drivers para titan aún estan demasiado verdes.
Como todos espero a verlas en manos de Elp3, para despejar mis dudas ;).
Un Saludo
-
2 Titanes probablemente rindan más que tu trío y le saquen un cacho, hay que tener en cuenta que una única Titan no anda demasiado lejos de un SLI de GTX670, y en OC quizás tengan más margen las Titanes que las GTX670. Eso si, 2000 eurazos en GPUs…
-
Jotole esperate a que las tenga ELP3 y luego ya haces calculos,yo desde luego no tendria ninguna prisa por cambiar tres 670,ahora mismo las Titan van a costar muy caras quiza en un par de meses sea distinto,posiblemente hasta termine sacando una de 3Gb,pero de salida es mejor no comprarlas,por que van a aprovecharse de la novedad y ademas te puedes ahorrar dinero si esperas.
Pero donde mejor te puedes hacer una idea es con las de ELP3,se vera lo que tiran y se vera lo que suben,vamos que no vas manco con tres 670.
Yo cambiaria mis 480 por una Titan pero a ese precio no lo hago,no quiero que Nvidia se acostumbre a poner las tarjetas tan caras y lo mejor es no comprar mientras lo haga.
saludos