Prueba y compara el rendimiento de tu PC con nuestro banco de pruebas.

Primeros test de las 980 y 970 de Nvidia


  • Veteranos HL

    @wwwendigo:

    Espero que último… XD

    Muy bien, las tiendas sino nvidia directamente rebajan las GTX 780 Ti, ¿sabes porqué, verdad? porque ayer valían 650€ y se quedaban tan anchas. También sabes porqué las GTX 770 se "apartaron" de los 300€ hace poco, ¿verdad?, no, no tiene nada que ver con la tontería que decían por ahí algunos sites de rumores de "por la R9 285" y sus tongos varios, no.

    Simple y llanamente toda recolocar todo los precios. Si las GTX 780 Ti AHORA, no AYER, están a ese precio, es por la presión de la GTX 980, si no hubieran salido, ¿te crees que habrían rebajado las 780, con una AMD que no ha sacado hasta ahora ninguna novedad y con precios de momento estabilizados (está bajando ahora, pero no por las GTX 780 precisamente, sino por las 900).

    Como comprador de GTX 780 Ti dices que es un timo (hablas de tu caso, no el de la mayoría, donde se parte de menos y se quiere un nivel de rendimiento, objetivamente la 980 es una mejora de la situación), porque no te ofrecen más, vale, de acuerdo, eso en realidad nunca te lo he discutido.

    No tiene sentido cambiar estas tarjetas evidentemente, pero de rebote has visto forzada una rebaja en tu modelo actual y beneficio posible si quieres más para un SLI.

    De todas formas, ¿cuál es el problema? Cierto que no se han metido nuevos niveles de rendimiento, pero sí se han introducido productos interesantes y sobre todo han mejorado el panorama de las gamas medio-altas (no las top, en POTENCIA pero sí en muchas otras cosas accesorias).

    Pero sabes que tarde o temprano llegarán las novedades que pides, el GM210 o como quiera que se vaya a llamar. Puede que haya que esperar a 20 nm, o quizás no y se haga a costa de un chip masivo (como mínimo 600 mm2 para que sea "digno" de ese nombre, al no cambiar de proceso de fabricación).

    Y entonces ya tendrás su relevo, si así lo quieres. A los que no tenemos GTX 780 Ti, SI nos beneficia este lanzamiento, porque además va a forzar una serie de ajustes de precio. Y además la 980 sí nos aporta unos pluses muy útiles.

    No sé porqué te pones a hablar de ROPs y de delta color compresion (¿te das cuenta que es la versión 3.0? y que por tanto, aunque sea un nombre muy bonito y un buen aporte, implica que hay otras dos versiones de esta tecnología ACTIVA tanto en Fermi,1.0, como Kepler,2.0, puede que con peores ratios de compresión, pero funcionales, yo a esto le llamo "marketing" y "coño, que los de AMD están presumiendo en Tongo de meter la delta color compresion que llevamos dos generaciones trabajando en nuestros chips como si fuera la hostia, y la gente lo está flipando con estos datos, no seamos tontos y hablemos nosotros de la nuestra que además lleva más tiempo currando por estos lares, publicitá publicitá) cuando yo no veo qué tiene que ver con el rendimiento que es lo que estamos contando.

    Yo no veo ninguna contradicción en lo que digo sobre lo impresionante que es esta tarjeta con ancho de banda limitado cuando trabaja con superresoluciones, ya que esa compresión sólo es una evolución algo depurada de una característica ya existente, y los ROPs son útiles a la hora de "escribir píxeles" a memoria, pero no ayudan ni un pimiento cuando se trata de cargar texturas u otros datos de este tipo que consuman mucho ancho de banda. Si rinde tan bien, posiblemente sea gracias a una mezcla del tema del delta color así como todas las mejoras del sistema de cachés (y no sólo la L2, en general todas las mejoas de niveles de cachés evitan la amplificación de accesos a memoria redundantes en el tiempo), y es impresionante porque ... lo es. Mira a Hawaii con su tremendo ancho de bnada y sus 64 ROPs, arrodillada contra la GTX 980 en 4k (es un poco melodramático, lo sé, pero una derrota aunque sea por porco de Hawaii en estas condiciones, es una gran victoria para una arquitectura "modesta" de sólo poco más de 200 GB/s de ancho de banda).

    Pero bueno, estos son temas teóricos, de lo del rendimiento, que sí, que no me peleo por un porcentaje pequeño, pero mi punto de vista es del que ve una mejora del mercado porque AHORA está todo un poco más barato por este lanzamiento, o va a estarlo. Y por supuesto por el escalón "de acceso" que es la GTX 970.

    Eso no contradice que a ti no te interese este modelo. Pero timo timo... no es. Espérate a las GM210 para mejorar el rendimiento. Igual con suerte sale algún "amago" de ésta en forma de 28 nmm (no creo que ningún GM2xx de 28 nm sea el equivalente real en specs de sus contrapartes ¿originales? en 20 nm, dado que un chip como el GM204 en 20 nm sería tan "pequeño" como 200 mm2, un tamaño más compacto de lo normal para la serie xx4 de chips), en pocos meses, y así ves algo mejor a las claras.

    Cuando hablo de frecuencia maxima en oc o boost, hablo como te digo en graficas referencia y con el maximo voltaje disponible y bloqueado, creo que es la comparacion justa ;D.

    El caso es que yo lo enfoco desde la perspectiva de mis graficas y tu desde la tuya, entiendo tu postura y se que nvidia en 20 nm va a fabricar una buena bomba, pero aceptando que el oc medio este en los 1500, volvemos a tener practicamente un empate en fps entre las dos, unos cuantos arriba en X juego y otros abajo en Y juego.

    Si te sale buen asic y buen chip pues tus 1600 o mas, se ha llegado a ver ya 2 ghz con ln2 segun lei no recuerdo donde, creo que fue kingping, tengo que mirarlo, a ver si baten los 18400 puntos en el famoso 3dmark XD.

    El tema del precio está claro que ha beneficiado al nuevo comprador, o al indeciso, que ve en la 970 un chollo y las Atis cayendo y ajustando precios.

    Realmente Nvidia ha pegado un golpe sobre la mesa en consumo con un rendimiento top, AMD va a tener que trabajar muy duro para ofrecer mejor rendimiento/precio por que en consumo no creo que pueda acercarse a los verdes.

    Por cierto un gusto hablar contigo, leo tu blog de vez en cuando y las reviews que vais haciendo y tal, muy interesante todo la verdad ;).

    Un saludo.



  • Por favor,dejaos las discursiones para otros foros,o hacerlo por privado.Porque a lo mejor hay gente que le interesan datos de primera mano de las GTX900..:wall: EDITO:veo que lo llevais bien,entonces mejor..;D

    Patagónico,muy buenas noticias…consumo PICO a la pared del ladrón (que anda que no tiene mierda) del equipo entero,incluyendo monitor,cascos etc...) y atención,con un OC DE 1470MHZ A LAS 4 PASANDO UNIGINE 3 VUELTAS!!!

    4770K a 4600MHZ

    No andaba desencaminado…1200W menos de consumo,un 20% mas de rendimiento.

    Saludos.

    Temps buenas para tratarse de 4 juntas.No pasa de 78º ninguna con 1470MHZ y un perfil aceptable no demasiado agresivo.


  • Veteranos HL

    Eso si que es una pasada, 1200w menos es una autentica barbaridad, sin palabras …...



  • @Javisoft:

    Eso si que es una pasada, 1200w menos es una autentica barbaridad, sin palabras …...

    Vamos a ver,obviamente són 1200W menos haciendo OC extremo a las TITAN.Si las dejas de stock una FA de 1500w las mueve sin problemas,pero en cuanto cambias bios y subes 300-350MHZ la frecuencia y le metes voltaje de 1,30 para arriba…ocurre esto..


  • Veteranos HL

    Sisi, si he pillado que el simil era con oc mas o menos al mismo nivel de stress y tal, a kepler en cuanto le metes voltaje sube el consumo bastante. Pero claro lo multiplicas por 4 y joder XD, en temas de consumo chapo por nvidia.



  • @Patagonico:

    Ya lo compre, la decisión estaba tomada hace mucho quería un 8 núcleos y es verdad todo lo que dices no tengo necesidad ni el 2500K se me queda corto pero como vengo haciendo hace tiempo no lo tomo como un gasto sino una inversión porque esto explota en cualquier momento no tanto al extremo como te voy a explicar pero a fin de año se espera mínimo dólar $ 10, los componentes se toman a cotización dólar y viene subiendo rápidamente para darte un EJ el dólar cuesta en mi país $ 8,50 pero tienes un limite de compra mensual si quieres comprar lo debes hacer por afuera de mercado cuesta $ 15 una brecha de 70%

    Ahora los componentes se pagan a 8,70 por el momento pero se habla de no dejar entrar productos importados y agregar mas aranceles.

    Si lo traes importado como me paso con el monitor pagas precio paralelo $ 15 es como vendría a decirte uds pagan 1 a 1 con dólar, el ejemplo seria pasar de 1 a 1,70.

    Resumiendo quiero darme el gusto por lo menos con el micro que me durara mucho tiempo.

    Saludos.-

    Buen pepino te vas a montar, de todas formas en todas partes se habla de economía de que si el dolar puede colapsar, por eso a veces es mejor no vivir preocupado.

    Pero si puedes darte el gusto pues tendras un equipo que debe durarte mucho, disfrutaremos lo que podamos mientras podamos.

    saludos

    @wwwendigo:

    ¿Qué te apuestas a que se refiere de STOCK?

    La típica trampa. Para alguien que reclama frecuencias iguales o usando el máximo potencial de OC de frecuencias entre chips totalmente distintos, es hasta curioso que haga la comparación como le convenga según el caso entre modelos que usan, esta vez sí, mismo chip.

    Las matemáticas no mienten, en el silicio de ambas dies la única diferencia que hay es un SMX deshabilitado, ni más ni menos. Esto significa que en potencia bruta hay justo esta diferncia MAXIMA:

    14 SMXs vs 15 SMXs. O sea, 14/15 o lo que es lo mismo, si se depende TOTALMENTE del rendimiento de los SMXs, ya sea por uso masivo de shaders o accesos a texturas via TMUs, un 7% de potencia extra a igualdad de reloj. No un10% (si la Titan es un 9% más lenta, la Ti le saca un 10% de rendimiento) que no sale de ninguna cuenta posible de las specs reales. Eso sin contar con que… si una aplicación está en un grado limitada por ROPs, por geometría, etc, va a DAR IGUAL o influir mucho menos ese SMX agraciado extra de la Ti. Eso sin contar además que el rendimiento real en aplicaciones reales siempre es menor que el potencial teórico por specs entre sabores de un chip (por cierto, un ejemplo muy gráfico para ver esto es ver el rendimiento comparativo entre GTX 970 y 980, con un número de SMMs capados mucho mayor, vemos una diferencia real no tan grande, más cuando además los relojes son un poco más altos para la GTX 980).

    Fuera de la gpu, la diferencia está en las frecuencias de stock de las memos, más altas en las Ti, pero dado que no tiene problemas de ancho de banda precisamente las GK110, dudo y mucho que esto "libere ningún rendimiento oculto", no estamos hablando de un GK104, vamos.

    Por tanto, o se compara con rendimientos de stock, o está falseando la información again exagerando para el lado que más le conviene. Que de todas formas, da igual, una Titan a 1450 a la que una Ti le saque un 10% (1,1) a igualdad de reloj (ja y ja) sería equivalente a una Ti de... 1450/1,1, o sea, 1318 MHz. Más incluso de su símil entre Ti 1300 vs 980 a 1400. Es que ni cogiendo el caso extremadamente favorable para su teoría.

    Yo creo que no deberíamos complicarnos, para mi es positivo que salgan estas tarjetas, hay mas donde elegir bajan precios de las otras, a mi personalmente me parece mucha diferencia de precio de la 970 a la 980, pero supongo que tendrán su estrategia comercial, ya que poner una 980 a 450€ les obliga a vender 780ti mucho mas baratas, quizá no sea solo cosa de Nvidia, pues las ha descatalogado, quizá sean los partner también quien presiona para no tener que bajar mucho.

    Luego el tema actualización, si es por rendimiento no le interesa a gente con GK110 y tampoco a quien tenga r9 290 o 290x aunque luego ya cada uno debe valorar si quiere menor consumo, menor ruido, o solo quiere trastear.

    Para gente que tiene 570,480,580,es muy positivo tener la opción de una 970 que ganaran mucho rendimiento y van a mejorar mucho en tema consumo, temperatura, ruido y nuevos extras que traen estas Maxwell, por eso es positivo que saquen cosas nuevas.

    Por eso digo que para mi no son un timo, no avanzan en rendimiento mucho, pero es bueno que salgan por que se mueve precio en las demás, y sobretodo que la 970 por precio rendimiento, consumo y OC si que es un avance importante, pues por lo que ha estado costando una 770 de 4Gb ahora pueden tener una 970 que si es un cambio claro a mejor.

    Ahora veo que se dice que entre 290 y 970 la diferencia podría ser un 1€ al mes en consumo, pues si quizá, pero yo me ahorre desde que tengo la 780 unos 130€ por que no he necesitado tanto aire acondicionado, con dos 480 hacia falta ponerlo alto, por que sino era como una sauna. son cosas que cuentan, con las Maxwell será mejor aun.

    saludos



  • @ELP3:

    Por favor,dejaos las discursiones para otros foros,o hacerlo por privado.Porque a lo mejor hay gente que le interesan datos de primera mano de las GTX900..:wall: EDITO:veo que lo llevais bien,entonces mejor..;D

    Patagónico,muy buenas noticias…consumo PICO a la pared del ladrón (que anda que no tiene mierda) del equipo entero,incluyendo monitor,cascos etc...) y atención,con un OC DE 1470MHZ A LAS 4 PASANDO UNIGINE 3 VUELTAS!!!

    4770K a 4600MHZ

    No andaba desencaminado...1200W menos de consumo,un 20% mas de rendimiento.

    Saludos.

    Temps buenas para tratarse de 4 juntas.No pasa de 78º ninguna con 1470MHZ y un perfil aceptable no demasiado agresivo.

    Increíble, pasamos de hablar cuando salieron las fermi de reactores nucleares y ahora 1000W con 4 GPUS si alguien me lo hubiera dicho tiempo atrás no me lo hubiera creido.

    Las pasaras por agua? supongo que podrán llegar bastante mas al quitarle limitar de voltaje o crees que al ser conexión 6+6 ya llegaron a su máximo.

    Saludos.-

    @fjavi:

    Buen pepino te vas a montar, de todas formas en todas partes se habla de economía de que si el dolar puede colapsar, por eso a veces es mejor no vivir preocupado.

    Pero si puedes darte el gusto pues tendras un equipo que debe durarte mucho, disfrutaremos lo que podamos mientras podamos.

    saludos

    Vivir preocupado no, simplemente me puedo dar el gusto y no me lo pienso como antes porque uno sabe que lo que compra hoy mañana será mas caro no mas barato, el ejemplo clarísimo fue el monitor en mi país no se consigue un 4K me lo hice traer me llego en junio tardo 1 mes también problemas con la aduana cuando lo encargue salía el dólar $ 10,80 al mes siguiente cuando retire tuve que pagarlo a $ 11,15 y si quisiera comprarlo hoy debería pagarlo a $ 15,20 a ojo seria 40% mas caro que hace 4 meses

    El que tiene un poco de dinero esta cambiando tv, auto y así estamos

    El equipo va a ser un pepino las gráficas son fácil de cambiar en cambio el micro cuanto mas me dure mejor no me gusta estar montando y desmontando.

    Saludos.-



  • Yo estas graficas no las pondría nunca por agua, no pongo ninguna pero estas menos, suben bien con su disipador, no se calientan mucho y es mas comodo para trastear, eso sin contar lo caro que sale meter bloques a cada una y luego para que en pocos meses saquen algunas mejor, y vuelta a empezar.

    Ademas que quizá con estas no se vea la ganancia que se podía ver con una Titan al pasarla por agua, la otra podía meter mas voltaje y subir mas pero aquí esta todo por ver.

    Pero solo por no desarmar RL cada vez que quitas una tarjeta ya ni me lo planteo.

    Saludos



  • @fjavi:

    Yo estas graficas no las pondría nunca por agua, no pongo ninguna pero estas menos, suben bien con su disipador, no se calientan mucho y es mas comodo para trastear, eso sin contar lo caro que sale meter bloques a cada una y luego para que en pocos meses saquen algunas mejor, y vuelta a empezar.

    Ademas que quizá con estas no se vea la ganancia que se podía ver con una Titan al pasarla por agua, la otra podía meter mas voltaje y subir mas pero aquí esta todo por ver.

    Pero solo por no desarmar RL cada vez que quitas una tarjeta ya ni me lo planteo.

    Saludos

    Si yo pienso lo mismo pero hay gente que le gusta hacerlas subir skynet3 esta trabajando en la bios

    NVIDIA GTX 980 Owner's Club

    Ahora también pienso posiblemente dentro de poco salgan las maxwell de 20nm supongo que los bloques serán compatibles y seguramente no todos pero la gran mayoría que compro esta 980 (3-4 gpus) pase a las de 20nm por cacharreo y ya contarían con el equipo para pasarlas por agua.

    Ayer instale los drivers 344.11 (supuestamente soportan la serie 700)y se me volvió loca la maquina no me reconocio mas el displayport y tuve que hacer malabares para volver a los 340.52

    Hoy encuentro que ya hay driver beta 344.16 para estas 980/970

    Drivers | GeForce

    Salu2.



  • Ahora que estoy jugando con las 4 ya puestas,estoy teniendo problemas en muchos juegos con el V sync.

    Mi DELL 3011 tiene 59,9 mas o menos.Y en juegos como los metro redux,splinter cell blacklist etc.No es capaz de sincronizar la imagen a esos frames.Bailan de 58 a 62,y me crea un sensación de lag constante tremenda.Dá igual lo que toque en el panel de control,que ahora hay mas opciones,pero no me ván bien los v-sync en las opciones de los juegos,ni en los adaptativos del panel de control y en nada.Lo único que lo arregla es bloquear los fps a 60 con RTSS.Entonces si vá bien,pero la verdad es que no me mola nada eso.No sé si tendrá algo que ver el tema de la incorporación del G-Sync,o es por tener 4 gráficas pichadas o lo que sea..

    Salu2.



  • @fjavi:

    Yo creo que no deberíamos complicarnos, para mi es positivo que salgan estas tarjetas, hay mas donde elegir bajan precios de las otras, a mi personalmente me parece mucha diferencia de precio de la 970 a la 980, pero supongo que tendrán su estrategia comercial, ya que poner una 980 a 450€ les obliga a vender 780ti mucho mas baratas, quizá no sea solo cosa de Nvidia, pues las ha descatalogado, quizá sean los partner también quien presiona para no tener que bajar mucho.

    Luego el tema actualización, si es por rendimiento no le interesa a gente con GK110 y tampoco a quien tenga r9 290 o 290x aunque luego ya cada uno debe valorar si quiere menor consumo, menor ruido, o solo quiere trastear.

    Para gente que tiene 570,480,580,es muy positivo tener la opción de una 970 que ganaran mucho rendimiento y van a mejorar mucho en tema consumo, temperatura, ruido y nuevos extras que traen estas Maxwell, por eso es positivo que saquen cosas nuevas.

    Por eso digo que para mi no son un timo, no avanzan en rendimiento mucho, pero es bueno que salgan por que se mueve precio en las demás, y sobretodo que la 970 por precio rendimiento, consumo y OC si que es un avance importante, pues por lo que ha estado costando una 770 de 4Gb ahora pueden tener una 970 que si es un cambio claro a mejor.

    Ahora veo que se dice que entre 290 y 970 la diferencia podría ser un 1€ al mes en consumo, pues si quizá, pero yo me ahorre desde que tengo la 780 unos 130€ por que no he necesitado tanto aire acondicionado, con dos 480 hacia falta ponerlo alto, por que sino era como una sauna. son cosas que cuentan, con las Maxwell será mejor aun.

    saludos

    Lo del consumo y su coste, me hace gracia, porque es una medio mentirijilla esa estimación que he visto por algunos lados como justificación (sería por cierto, la misma mentira que podría usarse en la época de las Fermi como argumento a favor de éstas, y sin embargo entonces no se solía ver como argumento, todo lo contrario, y eso que Fermi tenía algo a su favor para justificar excesos: El rendimiento absoluto más alto).

    El consumo es inferior no sólo mientras se juega, sino en escritorio, en reproducción multimedia, vale que se gotea mucho menos por hora en este caso en vatios-hora gastados, pero es algo mucho más continuo en el tiempo en sistemas que tienen un alto uso por usuarios, y lo más importante, se suma a lo anterior sin incompatibilidad. Excepto el "idle profundo" de las AMD cuando dejan de dar señal al monitor (y no hay aplicaciones en el escritorio en primer plano, vamos, las condiciones no son tan pocas precisamente), en lo demás son un goteo continuo de consumo a mayores, en multimonitor, etc.

    Lo mejor de estas arquitecturas es cuando se usan "racionalmente" y los consumos empiezan a ser muy distintos de los máximos sostenidos en pruebas. Si juegas con vsync o similares, las diferencias pueden ser muy apreciables. La diferencia entre mi GTX 560 Ti y una GTX 670 en consumos máximos no era importante, algo mayor incluso en la GTX 670 normalmente, pero mirando tal cual yo jugaba, con vsync o lo que fuera, se veían diferencias a favor de kepler por el uso del boost y una menor exigencia de rendimiento máximo para hacer X frames. Estas Maxwell parecen ir por el camino, ya digo que seguro que mejoran los consumos pero sobre todo en esta situación más realista, más que mirando consumos tope aunque sea en entornos "realistas" pero que no representan el cómo muchos juegan (juegos top en gráficos sin Vsync para poner a tope a las gráficas).

    Por ejemplo, en lo del multimonitor, la diferencia entre tarjetas equivalentes nvidia y AMD pueden ser fácilmente 40W, esto es una diferencia abismal, imagina un equipo usado 5 horas al día fuera de juegos, son tan o más importantes esos consumos que los propios del juego (200 Wh a añadir diarios). Y ya si a alguien se le ocurre colaborar en Folding o es un loco de la minería (altamente desaconsejado por mí, es una forma de perder dinero en forma de mayor gasto de energía y su coste que en el beneficio), entonces la factura crece exponencialmente, ahí una GM204 no es que ahorre, es que hay diferencias abismales. En simple idle "normal" las diferencias aunque pequeñas, son como gotas de agua, 10w aquí, 10w allí… y poco a poco.

    Yo contaría fácilmente unos 2 € de diferencia por mes entre UNA GM204 y una Hawaii, en un equipo entusiasta donde habrá muchas horas de uso y no sólo en juegos. Si se usa multimonitor, incluso podría ser algo más, 3€ con facilidad. No todo es contar sólo el consumo en juegos, hay más. Eso no va a quitar a nadie de pobre o hacerle rico, pero sí pueden significar 20-30€ anuales gastados. Y eso ya es una parte o el todo de lo que igual se gasta o ahorra entre distintos modelos que pueden parecer más baratos. Ahora dale una vida media de una gráfica de 3 años y ya es un total de ahorro a contar.

    @Javisoft:

    Cuando hablo de frecuencia maxima en oc o boost, hablo como te digo en graficas referencia y con el maximo voltaje disponible y bloqueado, creo que es la comparacion justa ;D.

    El caso es que yo lo enfoco desde la perspectiva de mis graficas y tu desde la tuya, entiendo tu postura y se que nvidia en 20 nm va a fabricar una buena bomba, pero aceptando que el oc medio este en los 1500, volvemos a tener practicamente un empate en fps entre las dos, unos cuantos arriba en X juego y otros abajo en Y juego.

    Si te sale buen asic y buen chip pues tus 1600 o mas, se ha llegado a ver ya 2 ghz con ln2 segun lei no recuerdo donde, creo que fue kingping, tengo que mirarlo, a ver si baten los 18400 puntos en el famoso 3dmark XD.

    El tema del precio está claro que ha beneficiado al nuevo comprador, o al indeciso, que ve en la 970 un chollo y las Atis cayendo y ajustando precios.

    Realmente Nvidia ha pegado un golpe sobre la mesa en consumo con un rendimiento top, AMD va a tener que trabajar muy duro para ofrecer mejor rendimiento/precio por que en consumo no creo que pueda acercarse a los verdes.

    Por cierto un gusto hablar contigo, leo tu blog de vez en cuando y las reviews que vais haciendo y tal, muy interesante todo la verdad ;).

    Un saludo.

    Si el empate técnico es casi inevitable, de stock la GTX 980 es algo mejor, pero tampoco mucho, con OC a pesar de que tiene mucho en reserva, las 780 Ti ya sabemos que también, y las cosas tienden a igualarse. Al final depende de cómo salga la unidad o unidades que se tenga.

    Como nota personal, yo no me creo o no doy por sentado que se vaya a superar los 1500 o siquiera alcanzar con una GTX 900, porque conozco cómo va el percal del OC en reviews, y lo que significa tener "buena suerte", yo me esperaría y me daría ya con un canto en los dientes con pasar de 1400 con las GM204, de la misma forma que estaría contento con llegar o pasar de 1200 en un GK110.

    Soy extremadamente tiquismiquis con los OCs pseudoestables que van muy bien en "casi todo" y durante muchas horas, con la típica excepción de X juego o lo que sea, que yendo "casi bien" acaba mostrando flaquezas ocultas en las demás pruebas. Por eso mis OCs suelen ser bajos, eso y que la suerte no suele acompañar al vulgar de los mortales… :ffu:

    De 3 GK104, ninguna me pasó de 1300 (aunque había una que quizás sí tuviera ese potencial, pena de ser una GTX 670 de referencia), y a alguna hasta le costaba mantener 100% estables los 1200. De una GK106, lo mismo, de antes con Fermi, again, difícil pasar del GHz con un GF114, no con voltajes aceptables. Etc.

    Tampoco soy nada amigo de usar voltajes muy distintos a las de referencia, porque se suele ir por el camino bastante a tomar por saco los consumos, en el caso de mi antigua GTX 560, la jodía si empezabas a subir voltajes y tal para superar el GHz, subía los consumos del equipo fácilmente 100W, creo que incluso rozaba 150W extra (ojo, consumos de pared, no contra fuente, que son algo más bajos). Aunque pudiera mantenerla fresca, me parecía una locura mantener ese tipo de OCs sólo para ganar un 2-5% de rendimiento, a costa totalmente del consumo. Por eso tampoco soy de hacer mucho caso a los OCs con toqueteo importante de voltaje, aunque pueda interesarme conocer el potencial teórico de una gpu.

    Evidentemente, yo veo las cosas desde el que viene "sin nada" similar en su equipo, donde sí existe beneficio, sobre todo mirando a la GTX 970 :ugly:, que es la que realmente me impresiona. Pero la 980, aún siendo mucho más cara (su precio "bueno" mirando a la GTX 970, debería rondar los 400€, 450€ como tope, por la potencia extra que ofrece y ya bien pagada). Y siempre que pienso en el potencial de OC, cuento tirando por lo bajo, así que no suelo hacer demasiada expectativa extra en este potencial.

    Evidentemente, el interés por las GTX 900 por un usuario de tops GTX 700 de nvidia, debería ser nulo o poquísimo, desde el punto del rendimiento como mínimo.



  • @ELP3:

    Por favor,dejaos las discursiones para otros foros,o hacerlo por privado.Porque a lo mejor hay gente que le interesan datos de primera mano de las GTX900..:wall: EDITO:veo que lo llevais bien,entonces mejor..;D

    Patagónico,muy buenas noticias…consumo PICO a la pared del ladrón (que anda que no tiene mierda) del equipo entero,incluyendo monitor,cascos etc...) y atención,con un OC DE 1470MHZ A LAS 4 PASANDO UNIGINE 3 VUELTAS!!!

    4770K a 4600MHZ

    No andaba desencaminado…1200W menos de consumo,un 20% mas de rendimiento.

    Saludos.

    Temps buenas para tratarse de 4 juntas.No pasa de 78º ninguna con 1470MHZ y un perfil aceptable no demasiado agresivo.

    Impresionante cuanto menos, 4 tarjetas pinchadas y no llegas a los 1000W. Cuando pienso que llegué a superar los 550W de pared con una única tarjeta como una GTX 560 Ti (venía sin control de consumo ese modelo concreto, y se despendolaba y más con OC con sobrevoltaje con Alan Wake), aunque fuera en distintas condiciones de setup, me deja como que con el culo torcido.

    En realidad tiene "lógica" dicho consumo, pero claro, entre ineficiencias de fuentes y otras historias, igual estamos hablando de unos 850W de consumo pedido a la fuente por el equipo, vamos, que un quadSLI que podría ir bien con una fuente de 1000W de calidad (un poco fuera de la zona óptima de una fuente el tener tanta carga del total, pero aún aceptable).

    Ahora que estoy jugando con las 4 ya puestas,estoy teniendo problemas en muchos juegos con el V sync.

    Mi DELL 3011 tiene 59,9 mas o menos.Y en juegos como los metro redux,splinter cell blacklist etc.No es capaz de sincronizar la imagen a esos frames.Bailan de 58 a 62,y me crea un sensación de lag constante tremenda.Dá igual lo que toque en el panel de control,que ahora hay mas opciones,pero no me ván bien los v-sync en las opciones de los juegos,ni en los adaptativos del panel de control y en nada.Lo único que lo arregla es bloquear los fps a 60 con RTSS.Entonces si vá bien,pero la verdad es que no me mola nada eso.No sé si tendrá algo que ver el tema de la incorporación del G-Sync,o es por tener 4 gráficas pichadas o lo que sea..

    Salu2.

    Vaya putada, igual es cosa del SLI, o puede que haya algún problema inicial como ya pasó con las GK104 cuando salieron con el vsync, sobre todo con el entonces experimental vsync variable. A ver si se soluciona pronto o localizas el porqué de este problema en tu caso.


  • Veteranos HL

    Prueba a subirlas sin boost, puede que el lag sea debido a bajones en los mhz, puedes probar v-sync a, quizas ayude, sino yo ya me tiro por los drivers que no esten finos para estas tarjetas.



  • @ELP3:

    Ahora que estoy jugando con las 4 ya puestas,estoy teniendo problemas en muchos juegos con el V sync.

    Mi DELL 3011 tiene 59,9 mas o menos.Y en juegos como los metro redux,splinter cell blacklist etc.No es capaz de sincronizar la imagen a esos frames.Bailan de 58 a 62,y me crea un sensación de lag constante tremenda.Dá igual lo que toque en el panel de control,que ahora hay mas opciones,pero no me ván bien los v-sync en las opciones de los juegos,ni en los adaptativos del panel de control y en nada.Lo único que lo arregla es bloquear los fps a 60 con RTSS.Entonces si vá bien,pero la verdad es que no me mola nada eso.No sé si tendrá algo que ver el tema de la incorporación del G-Sync,o es por tener 4 gráficas pichadas o lo que sea..

    Salu2.

    Probaste los nuevos drivers 344.16 quizás tengan arreglado el problema

    Drivers | GeForce

    Salu2.



  • @Patagonico:

    Probaste los nuevos drivers 344.16 quizás tengan arreglado el problema

    Drivers | GeForce

    Salu2.

    Si,pasa lo mismo.

    No es capaz de estabilizar los 60 fps clavados.Sino que te lo deja en un baile de entre 58 a 62 fps.Esto crea mucho sttuter.Ya lo he comentado en los foros de drivers,pero como la gente no se entera,se piensa que es un problema de escalado de la 3ª y 4ªgráfica cuando no tiene absoltamente nada que ver.Es simplemente que no deja fijos los fps con los HZ del monitor.Esto tiene solución como digo,bloqueando con riva tuner los 60 fps en pantalla.Pero no me parece de recibo acudir a programas de terceros cuando jamás había tenido este problema con nvidia.Imagino que los que de verdad tienen que mirar las incidencias en los drivers,le prestaran atención.Lo que no sé es si solo ocurre con multi-gpu o con cualquiera suelta.

    Saludos



  • @ELP3:

    Si,pasa lo mismo.

    No es capaz de estabilizar los 60 fps clavados.Sino que te lo deja en un baile de entre 58 a 62 fps.Esto crea mucho sttuter.Ya lo he comentado en los foros de drivers,pero como la gente no se entera,se piensa que es un problema de escalado de la 3ª y 4ªgráfica cuando no tiene absoltamente nada que ver.Es simplemente que no deja fijos los fps con los HZ del monitor.Esto tiene solución como digo,bloqueando con riva tuner los 60 fps en pantalla.Pero no me parece de recibo acudir a programas de terceros cuando jamás había tenido este problema con nvidia.Imagino que los que de verdad tienen que mirar las incidencias en los drivers,le prestaran atención.Lo que no sé es si solo ocurre con multi-gpu o con cualquiera suelta.

    Saludos

    No van finos estos drivers 344.11, yo ayer los instale para para ver si mejoraba el Dead Rising 3 y en plena instalación empezó a parpadear la pantalla del displayport termino de instalar y me tiro el mensaje hay un error en el equipo se reinicio y no tuve mas monitor parpadeaba se prendía y apagaba mje displayport, lo pude hacer arrancar en modo seguro pero por el Tv no por el monitor desístanle y puse los 340.52 y funciona todo correcto.

    Tocara esperar.-

    Saludos.-



  • @Patagonico:

    No van finos estos drivers 344.11, yo ayer los instale para para ver si mejoraba el Dead Rising 3 y en plena instalación empezó a parpadear la pantalla del displayport termino de instalar y me tiro el mensaje hay un error en el equipo se reinicio y no tuve mas monitor parpadeaba se prendía y apagaba mje displayport, lo pude hacer arrancar en modo seguro pero por el Tv no por el monitor desístanle y puse los 340.52 y funciona todo correcto.

    Tocara esperar.-

    Saludos.-

    A mi no me fallan,aunque no tengo nada conectado por DP, por HDMI no me fallan y por eso los dejo puestos, yo los pongo y ni reinicio, ya lo hare pero funciona todo.

    saludos

    @ELP3:

    Si,pasa lo mismo.

    No es capaz de estabilizar los 60 fps clavados.Sino que te lo deja en un baile de entre 58 a 62 fps.Esto crea mucho sttuter.Ya lo he comentado en los foros de drivers,pero como la gente no se entera,se piensa que es un problema de escalado de la 3ª y 4ªgráfica cuando no tiene absoltamente nada que ver.Es simplemente que no deja fijos los fps con los HZ del monitor.Esto tiene solución como digo,bloqueando con riva tuner los 60 fps en pantalla.Pero no me parece de recibo acudir a programas de terceros cuando jamás había tenido este problema con nvidia.Imagino que los que de verdad tienen que mirar las incidencias en los drivers,le prestaran atención.Lo que no sé es si solo ocurre con multi-gpu o con cualquiera suelta.

    Saludos

    No esta el Manuel G ese? digo donde los driver debe estar muy verde todo, quizá ahora que han puesto mas cosas a las nuevas tengan un cacao montado para hacer funcionar a todas, deberían hacer algunos para esas y reunificarlos mas tarde.

    Saludos



  • Enhorabuena ELP3 por los cacharros.

    Hacen buenos benchs, pero lo interesante para mi son los juegos. Tu que has tenido ambos chips, este y el gk110, has podido probar lo suficiente para comentar que tal anda de estabilidad maxwell vs tus titán, obviando el tema de que no te clava los 60 fps activando el v-sync?

    Saludos y gracias.

    Pd: han salido unos drivers beta, a ver si te arreglan el problema de los 60 fps.

    Enviado desde mi iPhone utilizando Tapatalk



  • @h2omadrid:

    Enhorabuena ELP3 por los cacharros.

    Hacen buenos benchs, pero lo interesante para mi son los juegos. Tu que has tenido ambos chips, este y el gk110, has podido probar lo suficiente para comentar que tal anda de estabilidad maxwell vs tus titán, obviando el tema de que no te clava los 60 fps activando el v-sync?

    Saludos y gracias.

    Pd: han salido unos drivers beta, a ver si te arreglan el problema de los 60 fps.

    Enviado desde mi iPhone utilizando Tapatalk

    Hola.

    En juegos la tónica general es que són un pelín mas potentes que las TITAN.Por norma sobre el 15-20%.Ejemplos:

    El tomb raider,totalmente al máximo a mi resolución y 1600p,con 4XSAA era prácticamente imposible que me mantuvieran las TITAN los 60 fps en las cinemáticas hechas con el motor del juego los 60fps,y estas si.O el the witcher 2 con el hiperreal excatamente igual.Estas mantienen los 60 fps constantes en cinemáticas y las otras no llegaban.Sin embargo el metro redux 2033 vá peor en estas que en las TITAN,sensiblemente peor,entorno a los 5-7 fps.Sin embargo el redux LL si vá mejor..es curioso.

    Y el tema del v-sync,aunque solucionble,es un tema para mí importantísimo.Estamos hablando que esto es lo que genera el sttutering,la cosa que mas odio del mundo en multi-gpu.Por lo tanto es una cosa atrás muy importante a tener en cuenta.

    Saludos.

    P:D:Ah! una cosa se me olvidó comentar,ahora en SLI (o al menos en 4) ya cada gráfica no tiene su propio boost.Sino que todas se sincronizan,pero a la que peor boost tiene.Esto en mi caso en poco putadita,ya que las buenas tienen como 20 o 30MHZ de boost adicional que se pierden por el camino.En el caso de que una de ellas baje de boost,bien por temp o TPD,las otras hacen lo mismo..etc.



  • @ELP3:

    Hola.

    En juegos la tónica general es que són un pelín mas potentes que las TITAN.Por norma sobre el 15-20%.Ejemplos:

    El tomb raider,totalmente al máximo a mi resolución y 1600p,con 4XSAA era prácticamente imposible que me mantuvieran las TITAN los 60 fps en las cinemáticas hechas con el motor del juego los 60fps,y estas si.O el the witcher 2 con el hiperreal excatamente igual.Estas mantienen los 60 fps constantes en cinemáticas y las otras no llegaban.Sin embargo el metro redux 2033 vá peor en estas que en las TITAN,sensiblemente peor,entorno a los 5-7 fps.Sin embargo el redux LL si vá mejor..es curioso.

    Y el tema del v-sync,aunque solucionble,es un tema para mí importantísimo.Estamos hablando que esto es lo que genera el sttutering,la cosa que mas odio del mundo en multi-gpu.Por lo tanto es una cosa atrás muy importante a tener en cuenta.

    Saludos.

    P:D:Ah! una cosa se me olvidó comentar,ahora en SLI (o al menos en 4) ya cada gráfica no tiene su propio boost.Sino que todas se sincronizan,pero a la que peor boost tiene.Esto en mi caso en poco putadita,ya que las buenas tienen como 20 o 30MHZ de boost adicional que se pierden por el camino.En el caso de que una de ellas baje de boost,bien por temp o TPD,las otras hacen lo mismo..etc.

    Antes solia sincronizarlas igual pero a frecuencias de la Master, antes de Kepler y el boost, ahora van hacia atrás y te pone todas a la frecuencia de la mas mala y con 4 tarjetas se nota.

    A mi me gusta mas asi sincronizadas, pero claro si te toca una mala te hace polvo, te quita rendimiento a todas, si te salen buenas si esta bien lo de sincronizar las frecuencias pues según saquen driver conseguirán que tire algo mas estable.

    Lo del V-sync si es un problema, aunque supongo que lo arreglaran con driver, debían haber sacado driver exclusivos para estas y tratar de arreglar esas cosas rápido y ya después unificarlos.

    La gente se esta volviendo loca, querer cambiar 780Ti o SLI de 780, pueden esperar perfectamente un tiempo y poder actualizar a una Maxwell mejor, es que solo deberían mirar el TDP y ver que la 970 tiene 145W incluso menos que una 660gtx que tiene 150W, rinde el doble, con OC posiblemente mas del doble pues la 660 no sube, pero se ve que en cuanto saquen algo de 200 o 220W debe ser un pepino y es entonces cuando interesa cambiar GK110, por que le debe sacar un margen importante, eso en 28nm en 20nm quizá sea mayor la diferencia.

    Saludos


Accede para responder