Nvidia Geforce Titan (gk110)
-
Yo cuándo antes siempre andaba buscando lo ultimo siempre usaba este comparador alemán que es de lo mejor que siempre he visto, de hecho podeís ver la titan por 939 con el VAT 19% pero seguramente meteran el 21 muchas tiendas aún así se va a 954 y suele valer unos 30€ de portes que sigue siendo rentable 984€ ahora tened en cuenta la tramitación luego garantías, por experiencia propia con asus ya tuve mis odiseas aunque dando la lata las tramitaron.
ASUS GTX-TITAN-6GD5, GeForce GTX Titan, 6GB GDDR5, 2x DVI, HDMI, DisplayPort (90YV03Y0-UONA00) in Grafikkarten: PCIe | heise online Preisvergleich (EU)Lo que es impresionante es que en España aparezcan los precios totalmente fijados en todas las tiendas a 1069€, cuando además por los precios vistos en Alemania esto no tiene porqué ser así.
Igual el PVP es ése, 1069€, o unos 880€ sin IVA, pero una cosa es el PVP recomendado por nvidia y otra el tener la mínima iniciativa de bajarlos algo a costa de beneficios propios, que es lo que hacen muchas tiendas "normales" con productos con PVP normalmente más altos que el precio medio de mercado.
Que la palabra de nvidia no es "sagrada" y cada tienda se mueve en su margen como así quiere. Visto el tema, a los alemanes parece que les gusta más el competir y a los españoles les gusta más el exprimir.
-
Con las gráficas de este nivel nunca pude trabajar pero podría ser que al ser tal novedad tengan contrato de distribución como ocurre con gamas de otros aparatos, es una suposición ya que lo desconozco, no obstante no me parece bien pero si es razonable al ser una tarjeta para un público pequeño que lleve este precio y seguro que tardará tiempo en bajar pero en 2 o 3 meses si hay unidades bajará y se estancara en los 9xx €, apostaría que si.
-
En izarmicro está mas barata:
Pero es un precio un poco "irreal" ya que no tendrán disponibilidad real,cosa que Pccomponentes y Colmood si,ya que que solo trabajaron bajo reserva.
Wendigo…lo que dices como simpre,es muy interesante,pero como casi siempre,ya sabes que caerá en saco roto..una pena..:(
Entre otras cosas esa es una de mis quejas hacia AMD,la bajada de precios es genial,pero mucha gente no sabe que entre otras cosas es producto de lo que cuentas...no de ONGs...que no hay..
Un saludo a todos..
-
En izarmicro está mas barata:
Pero es un precio un poco "irreal" ya que no tendrán disponibilidad real,cosa que Pccomponentes y Colmood si,ya que que solo trabajaron bajo reserva.
Wendigo…lo que dices como simpre,es muy interesante,pero como casi siempre,ya sabes que caerá en saco roto..una pena..:(
Entre otras cosas esa es una de mis quejas hacia AMD,la bajada de precios es genial,pero mucha gente no sabe que entre otras cosas es producto de lo que cuentas...no de ONGs...que no hay..
Un saludo a todos..
Evidentemente las AMD son las que más han bajado porque pasar de cobrar 550€ por la 7970 de referencia y la normalita, a cobrar unos 330€ en las tiendas más baratas, es una gran rebaja. :troll:
Pero la gente parece que sólo mira que AMD baja precios, cuando nvidia también lo hace y posiciona sus precios según lo que haga AMD.
Si es que está muy claro, hoy en día te haces con una GTX 680 por poco más de 400€, si hablamos de "tiendas-pirata" que tanto gusta citar por ciertos lares incluso menos, las GTX 670 te salen ahora mismo en no pocos lados, e incluso personalizadas por 315-325€, la GTX 660 Ti se puede encontrar por debajo de 250€ y no un poco, precisamente.
Es un suma y sigue. O sea que desde que se han lanzado cada uno de estos modelos TODOS han bajado. Los precios de AMD son "geniales" según cómo se interpreten, ellos fueron los primeros en elegir el precio de la nueva generación, y nvidia se ha limitado a colocar en el mismo escalón de precios productos equivalentes. Que además han ido bajando según movía pieza AMD.
O sea, que aquí lo que se quiera, pero los precios actuales son los que son porque ambas compañías empezando por AMD han decidido no mover piezas. Así que al final ni tan maravillosos unos ni otros tan caros, que el que sepa comprar sabe dónde encontrar a buen precio ambas marcas.
PD: Lo digo porque estoy un poco harto de ver lo de GTX 680 vale 500€, las GTX 670 valen 400€, y el resto como sigue, claro. Y no, no es así.
-
Krampak…esa són las "cosas" que no entiendo..
Estoy harto de "pasarme por la piedra" a 7970 fritas de voltaje con mas de 1,38V,subidas a 1300MHZ y disipaciones personalizadas en muchos test,con una simple Gigabyte GTX 680 de PCB de referencia,sin poder meter voltaje alguno.Y eso,con los Happy drivers de AMD que saca dia si,dia también para los benchs..
No digo con esto que las GTX 680 estén por encima de las 7970GHZ porque no es verdad,pero tampoco es cierto lo contrario,y menos el valor que algunas reviews le dán.Están muy igualadas.Lo que ocurre,es que según la batería de pruebas,puede haber un par de juegos-bench muy predominantes hacia AMD,que hagan que el % se desnivele..pero ya te digo,yo he tenido chorrocientas 79XX.Y te aseguro que jugando eso no ocurre,es mas,se juega mejor con Nvidia.Sobre todo si es multi-gpu..
Salu2.
Y no solo eso, sino que en ciertos lares no hacen más que repetir constantemente que las GCN tienen un escalado superior a las Kepler (Ya sean HD7900 vs GTX670/680 o HD7800 vs GTX660) cuando wendigo demostro que no era así, en Kepler el aumento de rendimiento es mayor con OC, no sabemos por qué, pero todo apunta a algún tipo de cuello de botella en GCN que se hace evidente al subir frecuencia en comparación a Kepler, o a algún tipo de fallo de diseño a nivel electrónico. Pero bueno, así están las cosas (Cada día peor) :facepalm:.
-
¡Esta publicación está eliminada! -
Y no solo eso, sino que en ciertos lares no hacen más que repetir constantemente que las GCN tienen un escalado superior a las Kepler (Ya sean HD6900 vs GTX670/680 o HD7800 vs GTX660) cuando wendigo demostro que no era así, en Kepler el aumento de rendimiento es mayor con OC, no sabemos por qué, pero todo apunta a algún tipo de cuello de botella en GCN que se hace evidente al subir frecuencia en comparación a Kepler, o a algún tipo de fallo de diseño a nivel electrónico. Pero bueno, así están las cosas (Cada día peor) :facepalm:.
Lo que ocurre con las kepler es que el boost no se mantiene,influyen demasiadas cosas pero si mantuviera fijos los 1300 rendirian ya muy bien,yo creo que algo falla en GCN cuando con un chip mayor y mas stream procesor no rinde como deberia,quiza es que AMD sabe hacer mejor tarjetas de 256 bits por que las ultimas generaciones con mas de 256 bits no le han rendido lo que se suponia por sus especificaciones,me refiero a la 2900 y 79x0,con las de 256 bits se le da mejor.
si comparamos DIE y SP de Titan es que las 7970 no tienen un DIE grande y deberia haber sido mas facil integrarlo con el proceso de 28nm,aunque no estuviera maduro,pero Titan con 550mm y 2688 SP no tiene mala eficiencia rendimiento watio.
saludos
-
Lo que ocurre con las kepler es que el boost no se mantiene,influyen demasiadas cosas pero si mantuviera fijos los 1300 rendirian ya muy bien,yo creo que algo falla en GCN cuando con un chip mayor y mas stream procesor no rinde como deberia,quiza es que AMD sabe hacer mejor tarjetas de 256 bits por que las ultimas generaciones con mas de 256 bits no le han rendido lo que se suponia por sus especificaciones,me refiero a la 2900 y 79x0,con las de 256 bits se le da mejor.
si comparamos DIE y SP de Titan es que las 7970 no tienen un DIE grande y deberia haber sido mas facil integrarlo con el proceso de 28nm,aunque no estuviera maduro,pero Titan con 550mm y 2688 SP no tiene mala eficiencia rendimiento watio.
saludos
Sí se mantienen, fjavil, sí, y te lo digo por experiencia.;D
Ahora, que si se calienta mucho la gpu en un juego o supera el TDP (todo solucionable con una curva de control de ventilación y subiendo el TDP al máximo), puede llegar a bajar, pero la oscilación más típica está entre dos valores con 13 MHz de diferencia, la frecuencia máxima a 1,175V y la segunda frecuencia del boost a 1,1625V.
O sea, que básicamente es estable. Tanto como para no molestarme en tener activado el perfil de ventilación que le había hecho a mi gráfica.
Lo que pasa es que hay mucha gente que o hace el OC mal (no sube el TDP o deja las memorias en "seco" o lo que es peor, las sube demasiado y tiene problemas de corrección de errores), o simplemente hacen las cuentas mal a la hora de calcular su OC y frecuencias (miran en GPU-z la información oficial de frecuencia base y boost, cuando en realidad ese boost sólo es el garantizado, el real en aplicación suele estar bien por encima de éste). El tema es que si usas las frecuencias boost oficiales que no las que realmente se aplican en funcionamiento, todo cálculo que se hace de "rendimientos" y mejora con OC son inválidos porque no se corresponden a la realidad, dando por tanto un error de base muy importante en todo cálculo de eficiencia y escabilidad (si usas el boost de GPU-z como valores del OC, automáticamente el desplazamiento que hagas para el OC es "mayor" en proporción a estas frecuencias que las reales, esto es, el % de OC calculado es más grande que el real, y por tanto esto dará como resultado unos cálculos de escalabilidad a la baja, siempre).
Por cierto, el último tipo de error lo he visto en varias reviews profesionales, así que evidentemente con ese tipo de información incorrecta circulando, no me extraña que se creen mitos como éste.
Mi GTX 670 tiene de specs 915/980 de base/boost oficiales, esto lo comparten TODAS las unidades del modelo, pero después cada uno según la calida de cada ASIC lleva más o menos lejos el boost, en mi caso la realidad es que mi GTX 670 funciona a 1058 MHz de serie, no a 980 MHz (y además clavados, sólo existe esa ligera oscilación de 13 MHz abajo por temperaturas).
El OC más alto siendo una "patapalo" es de 1215 MHz (por revisar, los últimos drivers de nvidia, de aquí a un par de meses y además en progreso me están tumbando el OC, será que los drivers de nvidia "no progresan" y como no aumentan el rendimiento, no ponen contra la cuerda los OCs, jajaja :ugly:), y no pasa de ahí, pero el boost que lees en GPUz no tiene nada que ver (1140 MHz).
Es que date cuenta, mi unidad es como es, pero otros con el mismo modelo se pone ella sóla en vez de a 1058 de serie a 1133 o algo por el estilo, sin problemas. Le haces un OC de 170 MHz y se va a 1300 (va por pasos el OC, no MHz a MHz), y según la información oficial del modelo el boot ha pasado de 980 MHz a 1150 MHz, para nada reflejando la realidad. Todo cálculo de escalibilidad y OCs hechos con estos datos no valen una mierda, hay que mirar la información de rendimiento en pantalla. En realidad las Kepler son bastante estables en sus frecuencias (excepto juegos de carga muyyy baja, lo cual se agradece en consumos), pero hay que conocer bien a cada unidad que pruebes porque su comportamiento es "independiente" de sus hermanas de modelo.
Se me olvidaba comentar la otra parte de tu comentarios… XD
La relación rendimiento/watio de Titan es muy buena, de hecho mejor que la de Little Kepler en no pocos casos:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/28.html
No compares stream processors entre marcas, la estructura en que se ordenan y funcionan es tan diferente que no es una comparación lógica, no tiene nada que ver el funcionamiento de un SMX de Kepler con un CU de GCN.
El tamaño de die de Tahiti, que no sé qué le pasa a la gente con tanto "es gama alta", es casi igual al del GK104, son 300mm2 escasos vs unos 345mmm2. O sea, que la diferencia está en algo así como el 15%, y fácilmente explicable sólamente con el tema de los controladores de memoria. De hecho algún chip anterior de AMD de 256 bits no andaba lejos del tamaño de Tahiti, o sea que realmente no se "cambió" las normas de diseño de chips ni de lejos. el Gk110 es un animal de distinto pelaje, esos 550 mm2 son la marca de la "casa" de nvidia cuando se pone seria, aunque sigue sin ser el chip más grande (en die) de nvidia. Así que evidentemente el precio no tiene que ver siquiera ni con la calidad del producto ni costes (hubo buses de 512 bits tirados de precio).
Yo a GCN no la veo escalar bien pero por los datos de rendimiento. Se ve en cualquier gráfica de rendimiento, en reviews, etc, cuando de pronto ves que modelos como la 7970 y la 7970 GHz casi empatan en puntuación, cuando deberían mantener consistentemente una diferencia del 13,5%. Cuando ves esto sabes que algo falla.
Yo creo que el GK100 original si "fuera necesario" habría salido para gráficas originalmente, aunque fuera a trancas y barrancas. Porque en ese momento la producción de 28 nm, además de inmadura, y por tanto nada adecuada para un chip así de grande (muchos descartes), era limitada en número de obleas producidas. Es posible que incluso los precios altísimos originales de AMD no sólo sean por "ánimo de lucro", sino para evitar una demanda demasiado alta de gráficas que no pudieran cubrir. Y ya de paso exprimían el limón, claro. Pero vamos, que el alto coste por oblea de 28 nm, su baja producción, y los problemas iniciales añadidos podrían estar detrás de la decisión de vender a un precio muy alto (aunque no fuera el único factor).
Ahora que se supone que ya no hay problema alguno de producción, que el número de obleas que TSMC puede producir es mucho mayor y que no hay tanto problema de descartes, es ahora cuando se podrían bajar precios con facilidad, pero bueno, una vez acomodados en un rango de precios se ve que les cuesta bajarlos.
PD: Y si aún así piensas que el límite de TDP te evita conseguir lo que quieres en frecuencias, lo tienes fácil, se modifica la BIOS para subirlo hasta "el infinito y más allá", casi, si quieres subes algo los voltajes, y subes más y sin trabas de TDP la Kepler en cuestión.
-
si comparamos DIE y SP de Titan es que las 7970 no tienen un DIE grande y deberia haber sido mas facil integrarlo con el proceso de 28nm,aunque no estuviera maduro,pero Titan con 550mm y 2688 SP no tiene mala eficiencia rendimiento watio.
Hombre, en el sentido tamaño de die/rendimiento las Titan son claramente inferiores al GK104 (no así en rendimiento/w que parecen incluso superiores al GK104), pues el tamaño de die es casi el doble, pero el rendimiento no lo es, cosa que se debe claramente a que es un chip todoterreno con circuitería extra de doble precisión y otras funciones de computación que el GK104 no tiene (Hyper-Q, GPU Direct, Paralelismo dinamico…) ni necesita. Algo parecido sufren las HD7900, aunque no se exactamente que extras tienen en ese sentido las HD7900 respecto a las HD7800 (Aparte de los controladores de memoria extras y los cores GCN extras), pero las relaciones rendimiento/w y rendimiento/tamaño de die son peores en las HD7900 respecto a las HD7800.
-
Wooouuuhh, cuanto movimiento por aquí y cuanto tiempo sin entrar :D. Por lo que se ve hay muchas caras conocidas que da gusto volver leer con cierta libertad.
ElP3 ansioso estoy leer tu review :sisi:
Saludos.
-
Wooouuuhh, cuanto movimiento por aquí y cuanto tiempo sin entrar :D. Por lo que se ve hay muchas caras conocidas que da gusto volver leer con cierta libertad.
ElP3 ansioso estoy leer tu review :sisi:
Saludos.
Buenas Txema…aquí estamos...ya queda menos,Quizás el Martes o el Miércoles tengamos algo de TITAN.
Bienvenido de nuevo..;)
Un saludo.
-
Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.
Saludos!
-
Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.
Saludos!
Hombre, Txemote, tú por aquí. Bienvenido.
Y sí, precio estratosférico para una muy buena gráfica, que si saliera a 700€ (carísima de todas formas) ya veríamos a muchos salivando para hacerse con una pero, vamos, a la orden de "ya". Si saliera a 500-600€ pondría en evidencia al resto de mercado de gráficas monogpu, obligando a un reajuste de precios a la baja.
Lo cual sería ideal para el consumidor, pero ya sabemos que el juego no va así, no en esta generación mientras nvidia lo tenga fácil para vender.
-
Sí se mantienen, fjavil, sí, y te lo digo por experiencia.;D
Ahora, que si se calienta mucho la gpu en un juego o supera el TDP (todo solucionable con una curva de control de ventilación y subiendo el TDP al máximo), puede llegar a bajar, pero la oscilación más típica está entre dos valores con 13 MHz de diferencia, la frecuencia máxima a 1,175V y la segunda frecuencia del boost a 1,1625V.
O sea, que básicamente es estable. Tanto como para no molestarme en tener activado el perfil de ventilación que le había hecho a mi gráfica.
Lo que pasa es que hay mucha gente que o hace el OC mal (no sube el TDP o deja las memorias en "seco" o lo que es peor, las sube demasiado y tiene problemas de corrección de errores), o simplemente hacen las cuentas mal a la hora de calcular su OC y frecuencias (miran en GPU-z la información oficial de frecuencia base y boost, cuando en realidad ese boost sólo es el garantizado, el real en aplicación suele estar bien por encima de éste). El tema es que si usas las frecuencias boost oficiales que no las que realmente se aplican en funcionamiento, todo cálculo que se hace de "rendimientos" y mejora con OC son inválidos porque no se corresponden a la realidad, dando por tanto un error de base muy importante en todo cálculo de eficiencia y escabilidad (si usas el boost de GPU-z como valores del OC, automáticamente el desplazamiento que hagas para el OC es "mayor" en proporción a estas frecuencias que las reales, esto es, el % de OC calculado es más grande que el real, y por tanto esto dará como resultado unos cálculos de escalabilidad a la baja, siempre).
Por cierto, el último tipo de error lo he visto en varias reviews profesionales, así que evidentemente con ese tipo de información incorrecta circulando, no me extraña que se creen mitos como éste.
Mi GTX 670 tiene de specs 915/980 de base/boost oficiales, esto lo comparten TODAS las unidades del modelo, pero después cada uno según la calida de cada ASIC lleva más o menos lejos el boost, en mi caso la realidad es que mi GTX 670 funciona a 1058 MHz de serie, no a 980 MHz (y además clavados, sólo existe esa ligera oscilación de 13 MHz abajo por temperaturas).
El OC más alto siendo una "patapalo" es de 1215 MHz (por revisar, los últimos drivers de nvidia, de aquí a un par de meses y además en progreso me están tumbando el OC, será que los drivers de nvidia "no progresan" y como no aumentan el rendimiento, no ponen contra la cuerda los OCs, jajaja :ugly:), y no pasa de ahí, pero el boost que lees en GPUz no tiene nada que ver (1140 MHz).
Es que date cuenta, mi unidad es como es, pero otros con el mismo modelo se pone ella sóla en vez de a 1058 de serie a 1133 o algo por el estilo, sin problemas. Le haces un OC de 170 MHz y se va a 1300 (va por pasos el OC, no MHz a MHz), y según la información oficial del modelo el boot ha pasado de 980 MHz a 1150 MHz, para nada reflejando la realidad. Todo cálculo de escalibilidad y OCs hechos con estos datos no valen una mierda, hay que mirar la información de rendimiento en pantalla. En realidad las Kepler son bastante estables en sus frecuencias (excepto juegos de carga muyyy baja, lo cual se agradece en consumos), pero hay que conocer bien a cada unidad que pruebes porque su comportamiento es "independiente" de sus hermanas de modelo.
Se me olvidaba comentar la otra parte de tu comentarios… XD
La relación rendimiento/watio de Titan es muy buena, de hecho mejor que la de Little Kepler en no pocos casos:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/28.html
No compares stream processors entre marcas, la estructura en que se ordenan y funcionan es tan diferente que no es una comparación lógica, no tiene nada que ver el funcionamiento de un SMX de Kepler con un CU de GCN.
El tamaño de die de Tahiti, que no sé qué le pasa a la gente con tanto "es gama alta", es casi igual al del GK104, son 300mm2 escasos vs unos 345mmm2. O sea, que la diferencia está en algo así como el 15%, y fácilmente explicable sólamente con el tema de los controladores de memoria. De hecho algún chip anterior de AMD de 256 bits no andaba lejos del tamaño de Tahiti, o sea que realmente no se "cambió" las normas de diseño de chips ni de lejos. el Gk110 es un animal de distinto pelaje, esos 550 mm2 son la marca de la "casa" de nvidia cuando se pone seria, aunque sigue sin ser el chip más grande (en die) de nvidia. Así que evidentemente el precio no tiene que ver siquiera ni con la calidad del producto ni costes (hubo buses de 512 bits tirados de precio).
Yo a GCN no la veo escalar bien pero por los datos de rendimiento. Se ve en cualquier gráfica de rendimiento, en reviews, etc, cuando de pronto ves que modelos como la 7970 y la 7970 GHz casi empatan en puntuación, cuando deberían mantener consistentemente una diferencia del 13,5%. Cuando ves esto sabes que algo falla.
Yo creo que el GK100 original si "fuera necesario" habría salido para gráficas originalmente, aunque fuera a trancas y barrancas. Porque en ese momento la producción de 28 nm, además de inmadura, y por tanto nada adecuada para un chip así de grande (muchos descartes), era limitada en número de obleas producidas. Es posible que incluso los precios altísimos originales de AMD no sólo sean por "ánimo de lucro", sino para evitar una demanda demasiado alta de gráficas que no pudieran cubrir. Y ya de paso exprimían el limón, claro. Pero vamos, que el alto coste por oblea de 28 nm, su baja producción, y los problemas iniciales añadidos podrían estar detrás de la decisión de vender a un precio muy alto (aunque no fuera el único factor).
Ahora que se supone que ya no hay problema alguno de producción, que el número de obleas que TSMC puede producir es mucho mayor y que no hay tanto problema de descartes, es ahora cuando se podrían bajar precios con facilidad, pero bueno, una vez acomodados en un rango de precios se ve que les cuesta bajarlos.
PD: Y si aún así piensas que el límite de TDP te evita conseguir lo que quieres en frecuencias, lo tienes fácil, se modifica la BIOS para subirlo hasta "el infinito y más allá", casi, si quieres subes algo los voltajes, y subes más y sin trabas de TDP la Kepler en cuestión.
No se yo todavia no he probado una kepler,queria una con GK100 o Gk110 pero con estos precios creo que seguire esperando,pero mucha gente decia eso de que no mantiene la frecuencia estable ya que depende del consumo y de la temperatura,tambien de la aplicacion segun dicen en algun juego el boost sube mas que en otros,pero yo no lo pude comprobar,aunque si parece que aunque sean graficas mismo modelo si sale buena alcanza mas boost y en configuraciones SLI es dificil que dos alcancen frecuencias iguales,aunque para eso les meterian el control por hatdwatre de MS.
La Titan si que me parece eficiente,aunque claro ha salido muchos meses despues que el GK104 y supongo que ya debe estar mucho mas maduro el proceso de 28nm,incluso ya deben tener casi preparado un GK114 o como quieran llamar al refresco del GK104,debe ser facil que sea mas eficiente que el GK104 y les permita meter mas SP,incluso mas frecuencia manteniendo consumos,lo que esta por verse es si les interesa sacarlo o prefieren estirar el GK104 unos meses mas.
pero lo del TDP lo decia por que hay gente que se dedica al OC y prefieren no subir demasiado el power target,aunque tambien tienen 2 tarjetas o mas,si una es peor supongo que limitara a las otras.
Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.
Saludos!
Un saludo txema si no es por el avatar ni te conozco,al final nos vemos todos por aqui a ver si se anima esto cuando haya Titanes,me da que esta ni la huelo con esos precios,ya podian sacar una con 3GB aunque sea como el k20 y a un precio mas normal.
Hombre, en el sentido tamaño de die/rendimiento las Titan son claramente inferiores al GK104 (no así en rendimiento/w que parecen incluso superiores al GK104), pues el tamaño de die es casi el doble, pero el rendimiento no lo es, cosa que se debe claramente a que es un chip todoterreno con circuitería extra de doble precisión y otras funciones de computación que el GK104 no tiene (Hyper-Q, GPU Direct, Paralelismo dinamico…) ni necesita. Algo parecido sufren las HD7900, aunque no se exactamente que extras tienen en ese sentido las HD7900 respecto a las HD7800 (Aparte de los controladores de memoria extras y los cores GCN extras), pero las relaciones rendimiento/w y rendimiento/tamaño de die son peores en las HD7900 respecto a las HD7800.
Yo creo que la Titan va a rendir muy bien para lo que es,el GK104 rinde mucho,viene a frecuencias altas con Boost y no es comun que un Chip pensado para gama performance supere por tanto a la gama alta anterior,el GK110 parece mas para alta resolucion,juegos muy pesados y exigentes,de todas formas ya deberian tener finalizado el diseño de un GK114 o GK204 o como quieran llamar al refresco del GK104 y posiblemente sea incluso mas eficiente que el GK110,por que ya debe estar mas maduro el proceso de fabricacion,ademas si hace eso que suele decir Nvidia de alineacion inteligente de transistores,deberian mejorar algo la arquitectura,tambien decia que las 7800 parecen tener mejor relacion rendimiento consumo que las 7900 y por eso decia que parece que a AMD se le da mejor hacer esas tarjetas,aunque parece que esas las fabrica GF,no se si tambien hay algunas de TSMC,no se si eso influye o no.
Saludos
-
Hombre, Txemote, tú por aquí. Bienvenido.
Y sí, precio estratosférico para una muy buena gráfica, que si saliera a 700€ (carísima de todas formas) ya veríamos a muchos salivando para hacerse con una pero, vamos, a la orden de "ya". Si saliera a 500-600€ pondría en evidencia al resto de mercado de gráficas monogpu, obligando a un reajuste de precios a la baja.
Lo cual sería ideal para el consumidor, pero ya sabemos que el juego no va así, no en esta generación mientras nvidia lo tenga fácil para vender.
Ya veo que estamos por aquí muchos conocidos , así da gusto, que nivelazo :D.
Sip, esta Titan es muy llamativa, pero el precio… se me escapa. Es una pena lo que esta pasando ultimamente con el precio de las gráficas, llevamos mucho tiempo sin reajustes. Los nuevos modelos van saliendo y el precio va subiendo de un lanzamiento a otro en vez de reajustarse :wall:. En otros tiempos los foros se inundarían de Titanes por 500-550€ ( relegando a la GTX680 a los 350€) pero que le vamos a hacer...
Un saludo txema si no es por el avatar ni te conozco,al final nos vemos todos por aqui a ver si se anima esto cuando haya Titanes,me da que esta ni la huelo con esos precios,ya podian sacar una con 3GB aunque sea como el k20 y a un precio mas normal.
Saludos
Buenas fjavi, tengo un nick diferente de hace ya años, a ver si me lo pueden cambiar :D. La verdad es que hacía tiempo que no andaba por Hardlimit y tras contarme un pajarito el nivelazo que había ultimamente he decidido pasarme. Además no en todos los foros se va a poder ver una review casera de la famosa Titan :D.
Saludos.
-
Buenas fjavi, tengo un nick diferente de hace ya años, a ver si me lo pueden cambiar :D. La verdad es que hacía tiempo que no andaba por Hardlimit y tras contarme un pajarito el nivelazo que había ultimamente he decidido pasarme. Además no en todos los foros se va a poder ver una review casera de la famosa Titan :D.
Saludos.
A mi me cambiaron tambien el nick,tenia otro al registrarme,me lo cambiaron por el mio,lo de la reviews es lo que esperamos muchos,por que esas titan tienen pinta de pedir mucho equipo,sobretodo con dos o tres tarjetas,por eso a ver como tiran en un equipo de ELP3,por que alguna de las reviews que se han visto sacan lo mismo a 1600x1200 que a 1920x1200 y a 2560x1600,le da lo mismo con dos o con tres y es raro por que en Hitman algo se debe notar pasar de 2 a 3 y sobretodo en resoluciones 2560x1600,digo esto
GeForce GTX Titan 3-way SLI and Multi monitor review - DX11: Hitman Absolution
veo resultados muy raros,ademas tampoco cuadra que dos 680 le den menos con un SLI de 680 que con una Titan a 1920x1080,le tiran de pena los SLI a en Hitman al de guru3D,por eso toca esperar a ver aqui como van.
Saludos
-
Como anécdota de las reviews de guru3D,comentaré una muy graciosa.
Este mismo señor,cuando salió la 5870,hizo una prueba en un nehalmen subido a 4,2GHZ creo recordar,vamos un 920.Y puso 2 5870 en CF.Bueno,pues para demostrar que la plataforma hacía cuello de botella a tal "dispendio gráfico" de la época,tuvo la genial idea(mas bien ni zorra idea) de poner como ejemplo el COD world at war…Efectivamente,en todas las resoluciones que probó,desde 720p hasta 1200p,le dió el mismo resultado..90fps..y se quedó tan ancho diciendo que el 1366,que por otra parte acababa praticamente de salir,era insuficiente para un CF de estas gráficas.
Lo que este señor no sabía,y parece mentira,es que todos lo COD de la época,iban capados a 90fps,y mediante una línea de comandos,desbloquebas ese framerate.Obviamente,sin él,se obtenian mas de 150 fps...
A pesar de todo,nunca tuvo el valor de reconocer el patón que metió.Un 1366,sigue siendo válido,hasta para las gráficas de esta primera generación de 28nm por si alguien lo duda...otra cosa,es que si compras una TITAN,lo normal es que no tengas esa plataforma..pero vamos,que yo veo tirar aún bastante bien los CF y SLI de 7970 y 680 bajo ese 1366..
Un saludo.
-
Como anécdota de las reviews de guru3D,comentaré una muy graciosa.
Este mismo señor,cuando salió la 5870,hizo una prueba en un nehalmen subido a 4,2GHZ creo recordar,vamos un 920.Y puso 2 5870 en CF.Bueno,pues para demostrar que la plataforma hacía cuello de botella a tal "dispendio gráfico" de la época,tuvo la genial idea(mas bien ni zorra idea) de poner como ejemplo el COD world at war…Efectivamente,en todas las resoluciones que probó,desde 720p hasta 1200p,le dió el mismo resultado..90fps..y se quedó tan ancho diciendo que el 1366,que por otra parte acababa praticamente de salir,era insuficiente para un CF de estas gráficas.
Lo que este señor no sabía,y parece mentira,es que todos lo COD de la época,iban capados a 90fps,y mediante una línea de comandos,desbloquebas ese framerate.Obviamente,sin él,se obtenian mas de 150 fps...
A pesar de todo,nunca tuvo el valor de reconocer el patón que metió.Un 1366,sigue siendo válido,hasta para las gráficas de esta primera generación de 28nm por si alguien lo duda...otra cosa,es que si compras una TITAN,lo normal es que no tengas esa plataforma..pero vamos,que yo veo tirar aún bastante bien los CF y SLI de 7970 y 680 bajo ese 1366..
Un saludo.
Si que fue un fallo decir que el 920 hacia cuello botella y no darse cuenta de que el juego va capado de fps.
Aqui ponen otra de las pruebas o reviews donde se ve la jugabilidad,la 690 parece que va muy bien a pesar de ser un SLI,por lo menos en Hitman va bien sin MS.
Nvidia's GeForce GTX Titan reviewed - The Tech Report - Page 11con esa configuracion Hitman debe pedir bastante y la 7970 y la 680 deben ir a pocos FPS,pero la titan y la 690 dan una linea mas plana sin tanto altibajo.
saludos
-
Si que fue un fallo decir que el 920 hacia cuello botella y no darse cuenta de que el juego va capado de fps.
Aqui ponen otra de las pruebas o reviews donde se ve la jugabilidad,la 690 parece que va muy bien a pesar de ser un SLI,por lo menos en Hitman va bien sin MS.
Nvidia's GeForce GTX Titan reviewed - The Tech Report - Page 11con esa configuracion Hitman debe pedir bastante y la 7970 y la 680 deben ir a pocos FPS,pero la titan y la 690 dan una linea mas plana sin tanto altibajo.
saludos
Yo creo que en esa review lo que más destaca es que la HD7970 GHz da bastante más rendimiento que la GTX680, pero sus gráficas de frametime son lamentables. La GTX690 y los SLIs de Kepler, en ese sentido, tienen un rendimiento sorprendente, apenas parece que sean configuraciones multiGPU, aunque hay casos donde en la Titan se nota que las latencias son mejores gracias a ser monoGPU, pero aun así, los resultados de las Kepler en multiGPU son muy buenos, todo lo contrario a los CF.
-
Yo lo que he visto ya en varias reviews que han destinado un poco mas de tiempo al OC.Es que con aproximadamente un +130MHZ,se acerca muy peligrosamente al rendimiento de la GTX 690.
Hablamos de quedarse a un par de frames … osea,que escala muy bien y tiene potencial.Subir +130MHZ y ganar un 13% es lo suyo..supongo que para benchs,podría llegar a alcanzarse el 20%..quizás mas..también hay planes de que el voltaje se pueda desbloquear prontamente a 1.25V en vez lo 1.20v que permite hasta ahora.
Ya digo,cada vez me gusta mas la gráfica...el problema ya sabemos cual es...
Un saludo.