• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. wwwendigo
    3. Mensajes
    W
    • Perfil
    • Siguiendo 0
    • Seguidores 0
    • Temas 0
    • Mensajes 262
    • Mejor valorados 0
    • Controversial 0
    • Grupos 0

    Publicados por wwwendigo

    • RE: Nvidia Geforce Titan (gk110)

      @Jotole:

      Jajajaa, igual si he sido un poco radical en el comentario, pero todo eso que digo ahí lo veo en mi equipo a diario 😉 y un sli de Titanes debe tirar mas que mi trio, no se cuanto, pero deberia sacarle ventaja.

      Por poner un ejemplo el Crysis 3, todo muy alto, menos sombras, y postprocesado que los tengo en alto y sin AA. Sin Oc de procesador ando entre 55/60fps, con bajones a 40. Con el proce a 4,9 unos 70 fps, con bajones que no pasan de 55. ( Hablo de 5760 x 1080p). Y los minimos son la diferencia de que un juego vaya suave, a que te pegue rascadas.

      Para que os hagais una idea de lo que tira esa resolución, y del equipo que estamos hablando el Crysis 3 en 1080p lo muevo con todo en muy alto y msa2X, por encima de 140 fps…( eso lo han visto compañeros de aquí, en vivo y en directo. 😉 )

      Entiendo que no todo el mundo tenga un procesador a 4,9 y una RL con un radiador de 9x12 solo para el proce para 24/7 para jugar. Pero es que estamos hablando de configuraciones extremas de tarjetas graficas de 1000€, Y minimo sigo recomendando 4,5 Ghz.

      Supongo que tendrá intel, en AMD ni me lo planetearía.

      Y yo si intento sacarle cada fps, a los componentes que tengo exprimiendolos sin castigarlos, que valen una pasta. Y hay que aprovecharlos bien.. 😉

      Salu2...

      P.D. Bien.....Con un poco de suerte para el jueves......veremos eso bichos en vivo y en directo, entonces despejaremos todas esas dudas......... 😉

      Ya te digo yo que una o dos Titan no entran en desperdicio con Crysis 3 para 1080p. Si quieres MSAA 4xAA y todo a tope, pero a tope, y mantener los 60 fps como mínimo siempre. Otro asunto es ajustar historias varias, que a mí me va bien a tope pero sólo con FXAA y sin blur motion (pero aún así lejos de los 60 fps).

      Vamos, que lo de 1080p se suele cumplir, pero no siempre.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @norvegia:

      Buenas gente, una duda, cuantos años creeis que pasaran hasta que un SLI de GTX TITAN se quede obsoleto? Es que quiero actualizar mi SLI de GTX 460 de 1GB que tengo desde el 2010 y, aunque el desenbolso seria considerable, me gustaria no tener que actualizar, como minimo, en otros 3-4 años.

      Que bonica es la jodia

      Hombre, partiendo de un SLI como el que tienes, muy sensible con el bolsillo, a uno con Titan es un cambio radical de principios en la compra que vas a hacer.

      Piénsalo así, con el precio de las Titan puedes comprarte, si quieres durabilidad, unas gamas high actuales (GTX 6x0 o HD7900) y hacer multigpu (en ese tema lo siento pero personalmente me decantaría por SLI) si te hace falta para tirar perfectamente durante el siguiente par de años, entonces podrías perfectamente comprarte lo que haya en el mercado y actualizar el sistema para estar en la punta de rendimiento exigido en juegos, por lo menos otros dos años. Y gastar menos dinero que estas dos Titan.

      La configuración que dices de 2 Titan sirve para tener lo mejor AHORA mismo y en el futuro más cercano, no asegura nada a largo plazo aunque seguro que podrás jugar bastante bien a juegos de dentro de 4 años, y posiblemente de más tiempo aún.

      Pero eso sí, no necesariamente jugando con las calidades a tope. Titan está muy orientado por sus cualidades a quien quiera el rendimiento top máximo posible y para quien quiera usar setups de muchos monitores, para gente que quiera más rendimiento que el que ofrece una GTX 690 pero no quiere pasar por un QuadSLI de 2 GTX 690 que es netamente menos eficiente y rápido que un sistema SLI basado en Titan (2 o 3).

      Hay problemas inherentes de las soluciones multigpu, que se acentúan cuando superas la cifra mágica de 2 gpus, y que con 4 unidades en paralelo son terriblemente acentuados (por algo las gráficas monogpu se quedan en "triSLI").

      Si quieres efectividad por el gasto que tienes, no es la solución, no existen garantías para lo que tú pides (yo podría "garantizarte" que podrás jugar bien a cualquier juego de dentro de 4 años, pero no puedo garantizarte que el juego vaya perfecto a tope, y mucho menos puedo garantizarte que un juego que use exclusivamente una nueva versión de un API gráfico funcione bien o simplemente funcione, digamos DX12, por decir, aunque creo que esto será realmente raro que pase).

      Eso sí, multimonitor y potencia máxima hoy en día y durante este año, Titan. Es posible que salgan las GTX 700 en el interino, pero si son lo que pienso que serán (GK114 como refinamiento y mejora puntual de algún aspecto, quizás incluso ampliar algunas capacidades de unidades concretas, pero no un cambio radical del chip), aún así no alcanzarán el rendimiento de Titan aunque se vuelvan algo más rápidas que las series actuales.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Bienvenido Gasolution..cada vez somos mas…a ver si podemos tener un foro decente y sobre todo..en PAZ.

      yo no tengo muy buenas noticias de TITAN.Al parecer,como por otra parte era de esperar…se han "perdido" por el camino.Hoy deberian de estar en España,pero o aduanas se las ha "comido" cosa habitual,o el distribuidor no sabe ni que hora es...

      Creo que mas bien para final de semana..y con suerte..Y las mias iban con las pocas unidades que llegaban a España,osea,que está todo el mundo igual..mañana no se vá a "escapar" ninguna..vamos,me refiero a las tiendas..

      Un saludo.

      €$@&!!!! siempre igual, en ese tipo de "descuidos", por llamarles de alguna forma, es donde se ve que España como mercado poca importancia tiene, ya sea porque fallan los distribuidores de aquí, aduanas o quienes nos las traen a Eggpaña.

      Si casi rentaba pillársela en Germania, que además de más baratas seguro que llegan antes, con o sin parada en aduanas.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @Wargreymon:

      Yo creo que en esa review lo que más destaca es que la HD7970 GHz da bastante más rendimiento que la GTX680, pero sus gráficas de frametime son lamentables. La GTX690 y los SLIs de Kepler, en ese sentido, tienen un rendimiento sorprendente, apenas parece que sean configuraciones multiGPU, aunque hay casos donde en la Titan se nota que las latencias son mejores gracias a ser monoGPU, pero aun así, los resultados de las Kepler en multiGPU son muy buenos, todo lo contrario a los CF.

      El caso de Hitman Absolution es casi de juzgado de guardia, es un juego donde sus "optimizaciones" para DX11 (no hay que olvidar que no deja de ser un port) sirven única y exclusivamente para que las gráficas AMD puedan estar algo por encima de las de nvidia, a base del uso masivo de ciertas técnicas 3D (además la mayoría en realidad ni siquiera son técnicas DX11 en sí), siendo un bastante mal (o bueno, depende de lo que se busque) representante de un juego "Gaming Evolved".

      No puede ser que con todo a tope básicamente hasta las monogpu de AMD más potentes se ahoguen.

      Dicho esto, este juego además parece tener también un tope (cap) en los fps que puede generar EN EL BENCHMARK, y no me extrañaría que se aplicara además sólo en las nvidia (XD). Parece que el tope no se aplica durante el juego, lo cual lo hace bastante sospechoso (¿pones un tope en el benchmark de un juego pero no en el juego en sí, que es donde puede tener sentido por temas de temporización y demás de los eventos del juego?). Si encuentro donde lo leí ya lo pondré por aquí, era en una review con sistemas multigpu y Titan por el medio, donde se encontraban con un tope de 90 fps, creo. Se extrañaron y preguntaron a la gente de nvidia si sabían algo del tema, y la contestación fue que en el juego la tasa de frames no estaba capada, que iba mucho más alto.

      A AMD le está funcionando muy bien su plan Gaming Evolved, ya que muchos de los títulos que apoya llevan benchmarks que hacen que se conviertan en pruebas elegidas por muchos usuarios y reviews, por facilidad de uso, y el uso de ciertas técnicas que se pueden considerar en exceso (un ejemplo que he puesto más de una vez, es el uso ridículo de SSAA+MSAA+FXAA/MLAA, que se ha hecho en algún título, con por lo menos 2 de esos factores, y creo que había uno concreto que llegaba a usar las tres técnicas a la vez), pero que dichas técnicas "favorecen" a AMD de muy distintas formas.

      En realidad si nos fijamos en los últimos Gaming Evolved podemos ver el patrón de benchmark interno más opciones salvajes de GI+HDAO+SSAA (y demás técnicas que AMD gusta de poner):

      Sleeping Dogs.
      Hitman Absolution.
      Sniper Elite V2.
      Dirt Showdown.
      Etc.

      Todos tienen benchmark Y combinan el uso de técnicas muy exigentes en ancho de banda y muy adaptadas a la arquitectura de GCN, tanto sea por la implementación de la técnica (GI, HDAO) como por la propia técnica en sí (SSAA).

      Estos títulos suelen ser importantes, pero no son lo que realmente se llaman AAA, son ports en la mayoría de casos y las ventas en PC quizás no esperan ser demasiado altas (excepto con la propia ayuda del acuerdo de venta de gráficas con licencias del juego). Esto es, que su mercado principal son las consolas.

      Si nos fijamos en los auténticos AAA, ese tipo de juego que es esperado desde hace tiempo, se comenta antes mucho, y que intentan mostrar las técnicas más modernas en rasterizado para PC, tenemos a dos auténticos peces gordos, AAA:

      Far Cry 3.

      Crysis 3.

      Ambos juegos son indudablemente AAA, se habló mucho antes de su lanzamiento de cómo serían, qué novedades gráficas tendrías. ambos tienen una buena expectativa de ventas en todas las plataformas, pero lo más importante, tienen un pie muy sólido en el mercado del PC, donde su motor gráfico vió su nacimiento y plataforma donde se sigue afinando dicho motor.

      Ninguno trae un benchmark integrado y curiosamente ambos rinden igual o ligeramente mejor en las nvidia que en las AMD.

      O sea, que hay que tener mucho cuidado con las reviews cuando se cogen ciertas pruebas un tanto capciosas, o se rebalancea el setup con juegos igual de "descaradamente" pronvidia (siempre me viene a la cabeza el Lost Planet 2, pero en parte es injusto porque más allá de su uso de teselación muy a fondo, no se conoce de "intentos de boicoteo" a AMD y su rendimiento, que sus teseladores sean lentos no es culpa de CAPCOM), o se está haciendo mal. Porque después cuando juegues a otros juegos menos populares (porque no tienen audiencia o simplemente porque no tienen benchmark integrado) en reviews y demás, igual resulta que la imagen que te llevabas con esas reviews puede estar distorsionada (reviews de sites e usuarios y foros, ojo).

      Yo es que cada vez que veo una prueba de Hitman o de Dirt Showdown me suelta un tufo tremendo sus resultados, son muy cantosos.

      Que de todas formas, incluso a pesar de eso el tema de las latencias no lo lleva tan bien siquiera las AMD en "sus pruebas":

      http://www.tomshardware.com/reviews/geforce-gtx-titan-performance-review,3442-6.html

      Tomshardware tiene un sistema derivado pero suficientemente distinto de medir latencias (la oleada que ha creado en sites de reviews TechReport, por cierto, y "ninguneada" por mucha gente por incómodos resultados), donde en vez de medir las latencias y buscar sólo las latencias "altas" por considerarlas las problemáticas (es acertado en este punto), hace otra cosa distinta:

      Mide la diferencia entre latencias de frames consecutivos, y a través de este valor y con métodos estadísticos (uso de percentiles) comprueba si son buenas o no las latencias.

      Creo que ellos mismos no tienen afinado el sistema, por varias razones:

      El uso de percentiles como el 75º percentil no tiene demasiado sentido, porque al hablar de frames y sus latencias esto quiere decir que busca la latencia de "corte" que define a las latencias más altas de ese valor que ocurre en 1/4 de los frames totales.

      Esto es, que si tienes 60 fps por imagen posiblemente estás hablando de hacer una criba y selección de los 15 fps más lentos en ese segundo (no es exactamente eso, pero para simplificar lo dejo así). Son demasiados frames, es cierto que es un valor que puede tener algo de sentido, pero no debería estar demasiado lejos de la media, y sobre todo, no cazaría los problemas de latencia, donde no hace falta que sean tantos frames por segundo los registrados, sino que se cacen los frames más molestos.

      el 95º percentil tiene algo más de sentido, pero de todas formas es un percentil muy generoso, ya que aún así muestrea 1/20 del total de frames renderizados cogiendo los más "lentos" (corte a partir del cual éstos aparecen), o sea, que puede tocar perfectamente a varios frames por segundo.

      Yo abogo tanto por el uso del 99º percentil así como percentiles incluso más altos como el 99,5 percentil y similares, porque si estás jugando y cada 3-4 segundos tienes un pequeño parón por culpa de un frame de 60 ms (posiblemente no rompe del "todo" la ilusión de animación, pero está al borde de ser directamente stuttering), la experiencia es horrible, y percentiles más bajos pueden no decir nada sobre el tema.

      Bueno, aún a pesar de todo este rollo, en esa review de Toms y con los datos que ellos consiguen, se ve que Hitman no va del todo fino en el hard de AMD, porque tiene una latencia de más de 10 ms en una resolución muy normalita (1080p) y ya en 1600p la cosa se dispara por encima de 20 ms.

      Yo a estas latencias las consideraría muy peligrosas, y creo que en esto en Toms aún no tienen pulido su metodología nueva no ya por el tema de percentiles usados, sino porque lo que ellos miden son las diferencias entre latencias consecutivas (que creo que es un buen método para cazar el principal problema de los sistemas multigpu, cuándo se vuelve molesto).

      Y por tanto, al ser una diferencia de latencia, aunque ellos puedan considerarlas "bajas" no lo son tanto, porque para ir a 60 fps necesitas latencias por frame de 16,6 ms, así que si tienes una diferencia de latencia entre frames de 10 ms, excepto que estemos hablando de generar frames en 2-3 ms, que va a ser que no, realmente estarás metiendo frames intermedios (diferencia de latencias) por debajo de esos 60 fps. O incluso mucho peor.

      Una extrapolación no del todo correcta, en el caso de Hitman sería interpretar los fps medios y añadirle el 95 percentil en forma de latencia:

      Con la 7970: 67 fps-> 14,9 ms. –> latencia media + dif. latencia 95º percentil = 14,9 ms + 11,1 fps = 26 ms. --> fps "aproximados" 95º percentil = 38,5 fps.

      O sea, un valor bastante "bajo" de fps puntuales en algunos frames. He de decir que este cálculo aproximado es positivo para el resultado de la 7970, ya que en la realidad apostaría a que esas diferencias de latencias del 95º percentil se encuentran entre frames que se generan en las zonas del bench más lentas en rendimiento. O sea, que en realidad se está haciendo un favor con este cálculo con los fps medios.

      Ya el tema de los 20 ms de diferencia de latencias consecutivas, vamos, eso es que tiene que ser malo para la jugabilidad sí o sí.:ugly:

      Este problema de latencias consecutivas dispares se ve que aparece bastante en la 7970 GHz aún siendo una monogpu, y que por ejemplo la Titan no lo tiene apenas frente a la GTX 690. Lo cual apunta a una de las ventajas principales de la Titan. Rendirá algo menos, pero de forma más sólida. Señalar que la Titan parece que necesita pulido de drivers, porque a veces tiene algún mínimo o latencias más altas que su "inferior" hermana, la GTX 680. Lo cual apunta a que se podrá optimizar casi seguro su rendimiento en breve, que los drivers actuales para Titan aún están un poco verdes en afinar sus diferencias con respecto a las otras Kepler.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @Jose:

      Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.

      Saludos!

      Hombre, Txemote, tú por aquí. Bienvenido.

      Y sí, precio estratosférico para una muy buena gráfica, que si saliera a 700€ (carísima de todas formas) ya veríamos a muchos salivando para hacerse con una pero, vamos, a la orden de "ya". Si saliera a 500-600€ pondría en evidencia al resto de mercado de gráficas monogpu, obligando a un reajuste de precios a la baja.

      Lo cual sería ideal para el consumidor, pero ya sabemos que el juego no va así, no en esta generación mientras nvidia lo tenga fácil para vender.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @fjavi:

      Lo que ocurre con las kepler es que el boost no se mantiene,influyen demasiadas cosas pero si mantuviera fijos los 1300 rendirian ya muy bien,yo creo que algo falla en GCN cuando con un chip mayor y mas stream procesor no rinde como deberia,quiza es que AMD sabe hacer mejor tarjetas de 256 bits por que las ultimas generaciones con mas de 256 bits no le han rendido lo que se suponia por sus especificaciones,me refiero a la 2900 y 79x0,con las de 256 bits se le da mejor.

      si comparamos DIE y SP de Titan es que las 7970 no tienen un DIE grande y deberia haber sido mas facil integrarlo con el proceso de 28nm,aunque no estuviera maduro,pero Titan con 550mm y 2688 SP no tiene mala eficiencia rendimiento watio.

      saludos

      Sí se mantienen, fjavil, sí, y te lo digo por experiencia.;D

      Ahora, que si se calienta mucho la gpu en un juego o supera el TDP (todo solucionable con una curva de control de ventilación y subiendo el TDP al máximo), puede llegar a bajar, pero la oscilación más típica está entre dos valores con 13 MHz de diferencia, la frecuencia máxima a 1,175V y la segunda frecuencia del boost a 1,1625V.

      O sea, que básicamente es estable. Tanto como para no molestarme en tener activado el perfil de ventilación que le había hecho a mi gráfica.

      Lo que pasa es que hay mucha gente que o hace el OC mal (no sube el TDP o deja las memorias en "seco" o lo que es peor, las sube demasiado y tiene problemas de corrección de errores), o simplemente hacen las cuentas mal a la hora de calcular su OC y frecuencias (miran en GPU-z la información oficial de frecuencia base y boost, cuando en realidad ese boost sólo es el garantizado, el real en aplicación suele estar bien por encima de éste). El tema es que si usas las frecuencias boost oficiales que no las que realmente se aplican en funcionamiento, todo cálculo que se hace de "rendimientos" y mejora con OC son inválidos porque no se corresponden a la realidad, dando por tanto un error de base muy importante en todo cálculo de eficiencia y escabilidad (si usas el boost de GPU-z como valores del OC, automáticamente el desplazamiento que hagas para el OC es "mayor" en proporción a estas frecuencias que las reales, esto es, el % de OC calculado es más grande que el real, y por tanto esto dará como resultado unos cálculos de escalabilidad a la baja, siempre).

      Por cierto, el último tipo de error lo he visto en varias reviews profesionales, así que evidentemente con ese tipo de información incorrecta circulando, no me extraña que se creen mitos como éste.

      Mi GTX 670 tiene de specs 915/980 de base/boost oficiales, esto lo comparten TODAS las unidades del modelo, pero después cada uno según la calida de cada ASIC lleva más o menos lejos el boost, en mi caso la realidad es que mi GTX 670 funciona a 1058 MHz de serie, no a 980 MHz (y además clavados, sólo existe esa ligera oscilación de 13 MHz abajo por temperaturas).

      El OC más alto siendo una "patapalo" es de 1215 MHz (por revisar, los últimos drivers de nvidia, de aquí a un par de meses y además en progreso me están tumbando el OC, será que los drivers de nvidia "no progresan" y como no aumentan el rendimiento, no ponen contra la cuerda los OCs, jajaja :ugly:), y no pasa de ahí, pero el boost que lees en GPUz no tiene nada que ver (1140 MHz).

      Es que date cuenta, mi unidad es como es, pero otros con el mismo modelo se pone ella sóla en vez de a 1058 de serie a 1133 o algo por el estilo, sin problemas. Le haces un OC de 170 MHz y se va a 1300 (va por pasos el OC, no MHz a MHz), y según la información oficial del modelo el boot ha pasado de 980 MHz a 1150 MHz, para nada reflejando la realidad. Todo cálculo de escalibilidad y OCs hechos con estos datos no valen una mierda, hay que mirar la información de rendimiento en pantalla. En realidad las Kepler son bastante estables en sus frecuencias (excepto juegos de carga muyyy baja, lo cual se agradece en consumos), pero hay que conocer bien a cada unidad que pruebes porque su comportamiento es "independiente" de sus hermanas de modelo.

      Se me olvidaba comentar la otra parte de tu comentarios… XD

      La relación rendimiento/watio de Titan es muy buena, de hecho mejor que la de Little Kepler en no pocos casos:

      http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/28.html

      No compares stream processors entre marcas, la estructura en que se ordenan y funcionan es tan diferente que no es una comparación lógica, no tiene nada que ver el funcionamiento de un SMX de Kepler con un CU de GCN.

      El tamaño de die de Tahiti, que no sé qué le pasa a la gente con tanto "es gama alta", es casi igual al del GK104, son 300mm2 escasos vs unos 345mmm2. O sea, que la diferencia está en algo así como el 15%, y fácilmente explicable sólamente con el tema de los controladores de memoria. De hecho algún chip anterior de AMD de 256 bits no andaba lejos del tamaño de Tahiti, o sea que realmente no se "cambió" las normas de diseño de chips ni de lejos. el Gk110 es un animal de distinto pelaje, esos 550 mm2 son la marca de la "casa" de nvidia cuando se pone seria, aunque sigue sin ser el chip más grande (en die) de nvidia. Así que evidentemente el precio no tiene que ver siquiera ni con la calidad del producto ni costes (hubo buses de 512 bits tirados de precio).

      Yo a GCN no la veo escalar bien pero por los datos de rendimiento. Se ve en cualquier gráfica de rendimiento, en reviews, etc, cuando de pronto ves que modelos como la 7970 y la 7970 GHz casi empatan en puntuación, cuando deberían mantener consistentemente una diferencia del 13,5%. Cuando ves esto sabes que algo falla.

      Yo creo que el GK100 original si "fuera necesario" habría salido para gráficas originalmente, aunque fuera a trancas y barrancas. Porque en ese momento la producción de 28 nm, además de inmadura, y por tanto nada adecuada para un chip así de grande (muchos descartes), era limitada en número de obleas producidas. Es posible que incluso los precios altísimos originales de AMD no sólo sean por "ánimo de lucro", sino para evitar una demanda demasiado alta de gráficas que no pudieran cubrir. Y ya de paso exprimían el limón, claro. Pero vamos, que el alto coste por oblea de 28 nm, su baja producción, y los problemas iniciales añadidos podrían estar detrás de la decisión de vender a un precio muy alto (aunque no fuera el único factor).

      Ahora que se supone que ya no hay problema alguno de producción, que el número de obleas que TSMC puede producir es mucho mayor y que no hay tanto problema de descartes, es ahora cuando se podrían bajar precios con facilidad, pero bueno, una vez acomodados en un rango de precios se ve que les cuesta bajarlos.

      PD: Y si aún así piensas que el límite de TDP te evita conseguir lo que quieres en frecuencias, lo tienes fácil, se modifica la BIOS para subirlo hasta "el infinito y más allá", casi, si quieres subes algo los voltajes, y subes más y sin trabas de TDP la Kepler en cuestión.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      En izarmicro está mas barata:

      Comprar Gigabyte GeForce GTX TITAN GV-NTITAN-6GD-B - 979,00 € en Izar Micro: Tienda de informática y componentes informáticos online

      Pero es un precio un poco "irreal" ya que no tendrán disponibilidad real,cosa que Pccomponentes y Colmood si,ya que que solo trabajaron bajo reserva.

      Wendigo…lo que dices como simpre,es muy interesante,pero como casi siempre,ya sabes que caerá en saco roto..una pena..:(

      Entre otras cosas esa es una de mis quejas hacia AMD,la bajada de precios es genial,pero mucha gente no sabe que entre otras cosas es producto de lo que cuentas...no de ONGs...que no hay..

      Un saludo a todos..

      Evidentemente las AMD son las que más han bajado porque pasar de cobrar 550€ por la 7970 de referencia y la normalita, a cobrar unos 330€ en las tiendas más baratas, es una gran rebaja. :troll:

      Pero la gente parece que sólo mira que AMD baja precios, cuando nvidia también lo hace y posiciona sus precios según lo que haga AMD.

      Si es que está muy claro, hoy en día te haces con una GTX 680 por poco más de 400€, si hablamos de "tiendas-pirata" que tanto gusta citar por ciertos lares incluso menos, las GTX 670 te salen ahora mismo en no pocos lados, e incluso personalizadas por 315-325€, la GTX 660 Ti se puede encontrar por debajo de 250€ y no un poco, precisamente.

      Es un suma y sigue. O sea que desde que se han lanzado cada uno de estos modelos TODOS han bajado. Los precios de AMD son "geniales" según cómo se interpreten, ellos fueron los primeros en elegir el precio de la nueva generación, y nvidia se ha limitado a colocar en el mismo escalón de precios productos equivalentes. Que además han ido bajando según movía pieza AMD.

      O sea, que aquí lo que se quiera, pero los precios actuales son los que son porque ambas compañías empezando por AMD han decidido no mover piezas. Así que al final ni tan maravillosos unos ni otros tan caros, que el que sepa comprar sabe dónde encontrar a buen precio ambas marcas.

      PD: Lo digo porque estoy un poco harto de ver lo de GTX 680 vale 500€, las GTX 670 valen 400€, y el resto como sigue, claro. Y no, no es así.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @Tecnho:

      Yo cuándo antes siempre andaba buscando lo ultimo siempre usaba este comparador alemán que es de lo mejor que siempre he visto, de hecho podeís ver la titan por 939 con el VAT 19% pero seguramente meteran el 21 muchas tiendas aún así se va a 954 y suele valer unos 30€ de portes que sigue siendo rentable 984€ ahora tened en cuenta la tramitación luego garantías, por experiencia propia con asus ya tuve mis odiseas aunque dando la lata las tramitaron.
      ASUS GTX-TITAN-6GD5, GeForce GTX Titan, 6GB GDDR5, 2x DVI, HDMI, DisplayPort (90YV03Y0-UONA00) in Grafikkarten: PCIe | heise online Preisvergleich (EU)

      Lo que es impresionante es que en España aparezcan los precios totalmente fijados en todas las tiendas a 1069€, cuando además por los precios vistos en Alemania esto no tiene porqué ser así.

      Igual el PVP es ése, 1069€, o unos 880€ sin IVA, pero una cosa es el PVP recomendado por nvidia y otra el tener la mínima iniciativa de bajarlos algo a costa de beneficios propios, que es lo que hacen muchas tiendas "normales" con productos con PVP normalmente más altos que el precio medio de mercado.

      Que la palabra de nvidia no es "sagrada" y cada tienda se mueve en su margen como así quiere. Visto el tema, a los alemanes parece que les gusta más el competir y a los españoles les gusta más el exprimir.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Lo que comentas,es degraciadamente,muy típico de las soluciones CFX..por poner un ejemplo,el crysis 3,juego que por pirmera vez lleva el patrocinio de AMD,no rula el CF y vá mejor en una sola..sin embargo el SLI rula perfectamente,sin contar los propios bugs del juego que són muchos..para variar..

      Un saludo.

      Gracias a un "amiguito" por otro foro que intentó atacar mis argumentos tan "pro monogpu", me enteré de lo último de PCPer, de lo cual es especialmente digno de ver esta página concreta de su review de Titan, y ojo con el título:

      Frame Rating Update - Why CrossFire was Omitted :

      http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-TITAN-Performance-Review-and-Frame-Rating-Update/Frame-Rat

      El asunto tiene muchos bemoles, es increíble lo que aquí se ve. Es que es peor que el tema de controlar sólo con fraps y frametimes, cada día AMD y su Cross nos da una sorpresa más.

      En fín, sigo erre que erre con que las soluciones multigpu adolecen de cierta inestabilidad endémica en cómo entregan los fps, por definición. Aunque de todas formas los SLI lo hacen bastante bien y no deberían ser "detectables" los defectos de base por lo amortiguados que aparecen.

      Que de todas formas, ahí aparecen, incluso en este review que supuestamente me contradecía (mayor variabilidad interframe de latencias, no suficientemente alta para provocar artefactos visuales que el usuario pueda percibir).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @fjavi:

      Es verdad que con los precios se han vuelto locos,lo que si parece es que esa Titan va a sacar mas a la 680 sobretodo en juegos Dx11 de lo que saco la 680 a la 580,pero claro pensando que ese GK110 deberia haber sido la gama alta de la serie 600 pues se hace cara,aunque sera como los ferrari o los equipos de sonido de gama alta,sera algo exclusivo para unos pocos afortunados.

      Yo las temperaturas no creo que sean nada malas,para un chip tan grande,en guru3d les da la misma temperatura con una con dos o con tres,yo esto lo veo muy raro,ese hombre en vez de caja debe usar un Ataud bajo tierra.

      GeForce GTX Titan 3-way SLI and Multi monitor review - Graphics card temperatures

      eso sin contar los cuello botella que se ven en algun juego.

      GeForce GTX Titan 3-way SLI and Multi monitor review - DX11: Hitman Absolution

      saludos

      Las temperaturas son buenas porque no son "accidentales", sino parte del sistema de gestión de la propia tarjeta para ponderar consumo, boost y voltaje, con temperatura.

      Tú si quieres le pones como "objetivo" una temperatura baja y la gráfica te la hará, aunque posiblemente perjudicando al boost, los 80º actuales típicos de funcionamiento son resultado de que ésa es la temperatura objetivo, si quieres la subes hasta el límite que nvidia considera seguro, que anda sobre los 95ºC.

      A todo esto es independiente el que tú ajustes el ventilador manualmente o con un perfil personalizado (esto último aún no sé si se puede hacer), así que puedes poner a la gráfica que su límite térmico sea alto (90º) pero con una curva personalizada que no le permita pasar de esos 80ºC objetivo actuales, aunque sea a costa de soplar más, y listo. Tienes el boost desatado y una buena temperatura.

      La razón de que siempre sea esa temperatura es por lo que te he dicho antes, no es que la gráfica no pueda "enfriar" más, es que no quiere. Tiende a estabilizar su temperatura en el objetivo de temperatura excepto que éste sea tan alto para su disipador que le "cueste" alcanzarlo (95º por lo visto es difícil que lo alcance aunque le pongas que todo su patrón de boost-voltajes-consumo tenga como patrón de temperatura el no superar ese límite).

      La forma de conseguir que se "enfríe" más no sería bajar la temperatura límite, que funcionaría pero ajustando parámetros como boost, voltajes y demás. Sino con una curva personalizada de ventiladores.

      A veces la gente olvida que esta gráfica busca primar el funcionamiento "elegante" lo cual implica el no ser una puta carraca al lado del oído. Se ve perfectamente que en pruebas de ruido bajo carga su nivel es incluso mejor que el de la GTX 680 o la GTX 690, que ya obtuvieron muy buenas críticas por este punto.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Bueno,ya han salido un montón de reviews,no voy a poner ninguna,porque creo que ya es de sobra conocido que cada una tira para un lado u otro y que mas o menos,cada uno tiene una web favorita.

      A mí lo que me ha quedado mas o menos claro es una cosa.Estamos hablando de un monogpu bestialmente potente,sobre un 40-50% mas potente que la GTX 680,más si hablamos de 1600p para arriba que es para lo que realmente esta hecha.Que con OC,que al parecer es mas facil de hacer que en las Kepler anteriores e incluso se le puede meter voltaje,aunque poco y limitado por temps,está de tú a tú con la GTX 690,y que tiene que mejorar via drivers…

      Parte negativa,sin duda,el precio...terrible precio..quizás,750€ hubiese sido lo suyo..**pero que le vamos a hacer,es lo que vale..y yo,voy a pagarlo..
      **
      Con suerte,dentro de unos dias,esperemos que pocos,tendreis en primicia,una review en casa,como se han de hacer,si pude ser con 2 o 3 GPUS…entonces vermos realmente lo que dá de si TITAN.

      Un saludo.

      Ya sabía yo que caerías al final. ;D

      Eso sí, aunque la gráfica es muy interesante, el precio está en una órbita totalmente distinta al de las otras en precios, sólo tiene sentido para amantes totales del rendimiento monogpu o los que buscan rendimiento top total en multigpu.

      Pero vamos, a qué precio. Ya con el que dices se forrarían, por poder la podían vender perfectamente por la mitad y sacar beneficios, cosas más raras se han visto antes. Aunque claro, eso obligaría a una bajada de precios en todo lo demás y "no es plan".

      A mí como no me toque en una tómbola ya veo que ésta no la huelo, ejeje.

      Muy buena tarjeta con un precio muy malo.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Los precios són de locos y además cada esamblador está mas loco que el anterior.

      En princpio,se habla de que Gigabyte,la vá a poner a la venta a 800€+IVA..

      Pero..las poquísimas unidades que Asus vá a poner a la venta,se rumorea que pueden estar entorno a los 900+IVA…osea que...

      Otra fuente me ha dicho que para Asus,1069€ Iva incluido..que no coincide con la de arriba...yo que sé..pero que de 1000€ en lanzamiento,no vá a bajar en España como desgraciadamente suponía.

      Es posible,aunque poco probable,que el Viernes empiezen a desembarcar algunas unidades muy limitadas de Asus,y la semana que viene de Gigabyte.

      Saludos.

      Asus abusando de nuevo, cada día les pillo más manía.

      Pues sí que cuadra a grosso modo ese precio de 1069€ con IVA incluido que dices con el de 900€ + IVA anterior. Aproximadamanete, claro.

      La Gigabyte que mencionas es la que parece respetar el precio de lanzamiento, yo mandaba a la mierda a Asus por querer robar más de lo que ya les permite nvidia, que es poco el latrocinio ya directo, con el precio recomendado por nvidia (que tanto tiendas como ensambladores y distribuidores PUEDEN ajustar a la baja, los muy mamones ¬¬).

      Si esta tarjeta saliera al precio justo que le toca, y no a estas exageraciones… pero llevamos toda una generación, bueno de hecho dos-tres quejándonos de lo mismo (todo comenzó con un Evergreen que subió precios y mucho respecto a los RV770, y así hasta ahora la "escalada" de precios).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Puede ser…la verdad es que está muy mal "hecha"..tendrían que ser como las de AMD,que esos si saben de Marketing...pero en fin,si es un slide interno o un punto de referencia,puede que sea así..pero si,efectivamente mirándolas con lupa,sale mas sobre el 40-50% que de 30-40%...

      Ala, a tomar por saco, me ha cabreado el leer por otros lares la típica asnada sobre porcentajes ridículos, y he cogido el rústico pero preciso método de poner la gráfica en pantalla bien escalada, como si yo fuera un topo, y usando una regla de costura medir cada barrita y ver qué relación había entre una y otra, con calculadora en mano.

      O sea, el % de rendimiento que le saca la Titan a la GTX 680, en vez de quedarme bizco e intentando interpretar los resultados, y los resultados mirándolos de esta forma (siempre hay un margen de error, por supuesto), dan esto:

      O sea, que era mucho más de lo que parecía a "ojímetro" e intentando adivinar los fps en cada barra. Raro es el caso que baja del 40%, y en algún caso concreto se supera e incluso por diferencia (Metro) el 50%.

      Si esta gráfica es correcta (y no he metido la pata, que siempre me puedo equivocar en uno de los resultados pero dudo que en TODOS), el rendimiento pasa normalmente y bien del 40%. Con casos alrededor del 50% o más.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Eso tiene toda la pinta de ser un slide de la propia Nvidia..

      Y sinceramente,no me gusta un pelo la media que daría..apenas un 35%..muy flojo para tratarse de la gráfica que es…esperemos a ver...

      Todas las de las barras "gordas" andan entre el 40% y el 50% de mejora. De las pequeñas he mirado la de BF3 que andaría por encima del 40% (me sale un 43% interpretando los valores de 47 fps vs 67 fps). Y metro que es tan chica que al final hasta se lee mejor, parece ser algo así como 18 fps vs 28 fps, o sea, rondando el 50%.

      Pero ya te digo que me cuesta "aproximar" al faltar las líneas de división, quizás sería más fácil el coger e imprimir la gráfica, medir y hacer líneas de división extra y ver los valores exactos que hay en esas gráficas.

      Pero con lo fácil que es hacer que las pxxx barritas tengan colgado su valor numeral, conhio!! :wall:

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Lo que dices wendigo es muy interesante,y demuestra que bajo algunas-muchas-pocas,circunstancias,ese 50% puede incluso que mas,ser una realidad…

      En cuanto al OC igual...levar sin problemas ese mosntruo a 1,1GHZ,hace que ya ganes un 25% de rendimiento,quizás mas con el control de voltaje...cosa imposible para una GTX 680..que aunque no lo parezca,también ocea...y sino,miraló donde tu ya sabes...;)

      Si, si ya… frito me tienen algunos que me aseguran que las Kepler "no escalan" el rendimiento con el OC o que no hacen nada de nada de éste. Harto de explicar el tema y poner cifras de rendimiento medido.

      Las cuentas las tengo hechas y las cosas no son "blancas o negras" como alguna gente gusta de decir.

      Por cierto, según esta "gráfica" que no tengo ni idea de dónde viene, ya habría unos cuantos casos de mejora del 50% con drivers verdes y todo lo demás:

      Starcraft 2 y Deus Ex. Y por ahí andarían Dirt 3, Skyrim o el Black Ops 2. De las demás gráficas, como que no miro demasiado sobre todo a las de barras pequeñitas, que no pienso dejarme la vista para interpretar qué cifra representa cada barra (podrían haber puesto por lo menos divisiones de 10 fps, digo yo).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Vamos a ver wendigo…vamos a ver...yo creo que aún esta muy verde de firm y de drivers...creo que es posible ese 50% de mejora..más,si ocea lo que parece...veremos,aunque de momento,parece que nos quedamos sobre el 40% pero depende de muchas cosas..a mí por ejemplo,mi fuente me dice que vá el boost a 875MHZ,y otros reportan casi el GHZ..quizás de ahí el redimiento que me remite..lo del precio,mejor dejarlo porque no tiene ni pies ni cabeza,pero que vamos a hacer..esto es lo que hay,y que como digo,comenzó ayá por Diciembre 2011.

      El 50% e incluso más es posible, eso no lo niego, pero no de media o mejor dicho, NO se debe esperar que en TODA situación.

      Hay unos hechos impepinables:

      1.- El hard de shaders y TMUs es un +75% en cuanto a unidades totales (en Titan).

      2.- GPCs, un +25% por tener 5 vs 4 (+25%).

      3.- ROPs, controladores de memoria, etc: Un 50% más que en el chip GK104.

      El tema del punto tres limitará el rendimiento en muchas situaciones donde los filtrados y accesos a memoria marquen el rendimiento. Si tienes el 50% más de ancho de banda, y una aplicación está limitada por ancho de banda, con la memoria funcionando a la misma frecuencia difícilmente podrás superar el rendimiento del chip "pequeño" en más de esa mejora del 50% (excepto que el chip pequeño tenga una mayor limitación en otra área con esa aplicación que no sea en memoria, claro).

      Pero otras situaciones están limitadas por shaders o TMUs, y no pocas en 3D. Así que es posible que muchas aplicaciones se vean más influidas por el punto 1 que por el punto 3.

      Los GPCs no deberían limitar casi nada porque las capacidades de geometría y teselado hoy en día están infrautilizadas, y ya sabemos porqué, y no, no tiene nada que ver ni con kepler ni con fermi. ¬¬

      Ahora a toda esta cuenta hay que sumarle el hecho de que Titan funciona a frecuencias más bajas, por lo menos de stock, lo cual echaría para atrás algunos de estos porcentajes en cierto grado.

      De todas formas, existe la ventana de oportunidad para mejorar el rendimiento en ciertas aplicaciones por encima del 50%, sin contar que el OC tiene pinta que podrá ser bastante interesante, ya se ha dicho en Guru3D que han puesto sin problemas su unidad a 1,1 GHz (para ese bicho no está mal), posiblemente sin contar el tema del desbloqueo de voltaje (cuidado con su aplicación, nunca me cansaré de decirlo), y otros detalles que lleven más allá el potencial de la gráfica.

      Es posible ese 50% y de hecho superarlo, sí, también es posible, aunque habría que verlo, que se incrementen las diferencias con el OC.

      Pero sobre todo lo que da esta gráfica es un rendimiento nunca visto antes con una monogpu, posiblemente más cercana en sensaciones a una dual que a una monogpu ordinaria.Porque tampoco hay que olvidar que una GTX 690 NO es un SLI de GTX 680, sino que se queda algo por debajo, y los sistemas multigpu básicamente nunca llegan al 100% de escalado de rendimiento, aunque haya casos donde se acercan.

      El precio es una barbaridad, pero despotricar contra él no sirve de nada. No veo que nadie se queje del precio de la ARES 2 (la 7990 "oficial" según AMD ¬¬), y le saca un buen pico (1600$) a la Titan, aunque rinda "más" (pero en qué condiciones).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Sí,me refiero a los whql.Que llevan el ini. de TITAN,los anteriores drivers no lo llevaban y por lo tanto no funcionaban.

      No obstante,efectivamente parece que hay un lio con el boost,de momento no funciona el boost 2.0,no se sabe muy bien si por drivers o por firm.Como Nvidia en los lanzamientos,pone drivers beta via ftp cada vez que lo vé oportuno,es posible que ni los whql salidos ayer,sean los definitivos para estas gráficas.

      En cuanto al rendimiento,bueno,siempre y cuando sea un 50% y ampliable mediante OC,yo lo veo bien…pero si solo es un 40% y encima,valiendo el doble,no hay excusa..pero bueno,ya veremos,a mí me dicen que tiene un grandísimo rendimiento pero sin ser la "revolución" que todo el mundo esperaba mediante hypie,fake o lo que sea..

      Y sí,me voy a hacer con 3 para "prejubiliar" a mis 4 GTX 680…mi pantalla de 30" lo agradecerá a buen seguro..;)

      Un saludo.

      P.D.Por cierto,al llevar retraso el lanzamiento,no se levanta NDA hasta el dia 21.

      Jajaja, qué cabrón (con todo el cariño y respeto del mundo, eso sí… XD). Dime donde vives que tengo por aquí un pasamontañas y unas Titan que agenciarme, jejeje.

      Yo creo que un 40% de media está muy bien, porque hombre, esos saltos no los pegan las top frente a las performances casi nunca. Otro asunto es el precio, que es una locura, como todo en esta generación.

      Ya he visto el precio "oficial" aquí en Europa, que lo han puesto por Guru3D:

      Aaaaand STOP

      And that's where this article ends, sorry! Now we'll share the manufacturer suggested retail prices.

      EUR 800 Ex VAT
      GBP 827 Inc. VAT
      USD 999 Inc. VAT

      Once we can unleash the benchmark test sessions (on Thursday), you'll learn more about the performance figures of this product.

      Until later.

      Está básicamente en lo dicho en el comienzo (quizás era un poco irreal pensar que sería más barata que la GTX 690, son productos muy distintos y creo que sabes por donde voy cuando te digo que van realmente a mercados/clientes distintos), es muy alto, disparatado, y básicamente sigue la tónica de esta generación.

      esos 800€ sin IVA aquí se transforman en unos 970€, gracias al IVA putrefacto que nos toca en España. O sea, menos que las hypes del momento (que decían de 1000 para arriba por lo menos), pero mucha pasta para lo que es.

      Y sí, los NDAs no se "liberan", o mejor dicho sólo parcialmente, porque les dejan hablar y mostrar cositas de la tarjeta pero no los datos de rendimiento, que para esos como dices hasta el 21 nada (supongo que a las 3 de la tarde, como hoy).

      El precio real que debería tener esta gráfica, uno "razonable" para ambas partes, es el de 500€ como tope, pero es que si nos ponemos a ajustar, TODAS bajan y un buen pico. Pero ésta la que más sin duda, vamos :ffu:.

      Aunque técnicamente…. joer lo que promete. Además han tenido la "deferencia" de no castrar en absoluto la parte de DP que tanto se decía que vendría muy castrada, lo cual puede transformar a esta gráfica, con el resto de mejoras en GPGPU, en una alternativa razonable para profesionales que no requieran los extras de las Tesla (CRC en memoria y demás historias).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      Joder, qué fuerte, lo del OC del monitor iba en serio… XD.

      Esto es peligrosillo, a ver qué hace la gente, veo despunte de ventas de monitores un mes después de Titan, jajaja (ESPERO que esta característica pueda ser usada por todos los usuarios de nvidia, o como mínimo los de kepler, no tiene mucho sentido vincularla sólo a Titan).

      Sobre la tarjeta, a falta de reviews, sus características que más me han llamado:

      1.- Se mantiene plenamente funcional la parte de unidades de cálculo de DP, simplemente tienes que elegir en el panel de control si quieres tener esta parte de la funcionalidad a plena capacidad (1/3 de las operaciones en SP) o si lo dejas como viene (1/24 de las operaciones de SP, como en el GK104). También mencionar que si quieres "todo el bicho" encendido se va a la mierda el boost, se deshabilita para "limitar" consumos. Lo que igual hasta le gusta a más de uno.

      2.- Se soporta de nuevo el cambio de voltaje por soft. Todo depende del voltaje que define como tope cada fabricante, pero en principio nvidia da carta blanca a estos para definirlo (supongo que con un límite). En anandtech parecen haber jugado con él con valores de 1,2V por lo menos.

      3.- La gráfica viene con un voltaje máximo con el boost que me ha llamado la atención, por alto. 1,1625V, un paso por debajo del máximo voltaje en las GK104.

      4.- Curioso que en el PCB se vea marcado el lugar para meter OTRO conector de 8 pines para alimentación, en posición muy distinta a lo de los ya existentes. A saber, pero desde luego curioso es.

      5.- El boost controlado principalmente por temperatura más que por consumo, dado que lleva conectores de sobra para superar con mucho los 250w de TDP, y que el boost está más limitado por la temperatura que otra cosa, todo pinta a un potencial de OC importante, o por lo menos los mimbres están ahí. En anandtech hablan de velocidades de boost (no "oficiales", ya sabemos cómo va eso) de casi 1GHz.

      O sea, que toqueteando cosas en un lado y otro, subiendo TDPs y límites de temperatura, con curvas de ventiladores más voltajes y conectores de alimentación muy por encima del límite de TDP (2x8 pines = 300W más los 75/150W de la ranura PCI-e), tiene pinta de poder conseguir buenos OCs.

      A seguir "rateando" por la red datos, pero vamos, reviews va a ser que hasta dentro de uno o dos días no va a poder ser.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Bueno,pues realmente no sé si esa tabla filtrada será real o no,o si lo es,con que drivers.Porque hasta última hora de la tarde de ayer,no salieron los drivers que dán soporte a TITAN.Es mas,muchos reviewers,han tenido los samples de pisapapeles todo el fin de semana por este motivo.También es cierto que se podian utilizar drivers "adaptados" pero logicamente,no es lo mismo.

      No obstante,las filtraciones que me están llegando,no són desde luego las que parecían en un principio.Estariamos hablando de una gráfica entorno al 40-50% mas potente que la GTX 680.Depende de lo que se pase evidentemente,y eso sí,al parecer incluso mas silenciosa.

      Si realmente rinde eso,que no está nada mal tampoco,no estariamos desde luego ante una come dual,pero siempre podemos pensar que Nvidia ha sido muy conservadora con los cloks,por el tema del TPD y demás,y pueden ocear bastante bien y compensar por ese lado.Pero también hay que ver lo dependiente de CPU que es,ya sabemos que el 99% de reviews són con equipos de stock,si realmente empieza a merecer la pena un PCI 3.0 etc..yo como siempre,a pesar de las reviews,no daré una opinión hasta tenerla en casa y ver realmente lo que dá de si..

      Un saludo.

      Supongo que esos drivers serán los recién sacados WHQL, que la única mejora que tienen es un irrisorio 5% en Crysis 3. Vamos, si no es por la Titan no veo razón para que hubiera salido este WHQL. Es que con la historia del fallo de seguridad que encontraron en el driver en Enero y esto, llevan 3 drivers WHQL en menos de 2 meses, cuando normalmente no suele haber más que un driver WHQL por mes, y gracias si tal.

      La gente es la hostia y se hace hypes solitos sin ayuda de nadie, ¿en qué cabeza cabe que se duplique el rendimiento en 3D entre un chip top de una generación vs el performance de la misma?

      Porque eso es el origen del GK104 y el GK110, aunque el último pueda tener optimizaciones y mejoras por este tiempo extra, es de la misma generación y usa el mismo proceso de fabricación. Si ya es raro que se consigan mejoras así de grandes (de ser ciertos estos datos) entre un top y un chip performance.

      Creo que el chip cumple sobradamente, precio totalmente aparte y que aún queda por comprobar (que de todas formas, será muy caro). Ahora que algunos se imaginaban historias, tanto positivas como negativas, alguna gente diciendo que si más de 1000€ o bastante más incluso (lo dudo), otros que si se come a una GTX 690 (ja), etc.

      La historia de siempre en cada lanzamiento.

      Por cierto ELP3, ¿no te irás a pillar alguna de estas Titan para probar, verdad? XD

      Sé que igual estás pasota en estos temas ya, pero sería bueno saber experiencias si tal, pero sin agobios.

      @fjavi:

      Creia que farcry 3 tenia SSAA,pero era raro ya que permite 8x,pero al final en la mayoria de juegos aunque tengan SSAA hay que poner configuraciones para jugar similares tanto en Nvidia como AMD,incluso Sleeping dogs a mi me gusta mas con SSAA en alto que en extremo,en extremo tiene mucho reflejo y lo veo algo exagerado.

      Lo del GPGPU la historia se repite ahora el nuevo 3dmark que graficamente no me parece nada del otro mundo para lo que pide,test cortisimos y muy raros,creo que usan GPGPU,ultimamente parece que se hace mas de cara al resultado para quedar por delante y no se cuida lo mas importante que es la jugabilidad,por que en ese mismo 3dmark he visto alguna 7970 con un MS importante,pone la ventana de los FPS que da durante el test y se ve demasiado pico,con kepler va mas plano.

      saludos

      Permite 8x pero por MSAA. De todas formas en este juego el AA es bastante caro, así que igual de ahí viene la confusión (y tiene sentido que sea caro con tanta "geometría" en pantalla, sin contar el hecho de cómo gestione las texturas transparentes).

      El SSAA en extremo no debería dar ningún tipo de cambio como el que dices, lo que pasa es que me da que en Sleeping Dogs la opción que controla el SSAA también activa otros filtros (de postproceso via GPGPU), si el SSAA fuera una opción que se controlara de forma "pura" esto no te pasaba.

      El SSAA es el AA "tonto" o "bruto", porque de hecho fue la primera técnica de AA usada en gráficas 3D para juegos, pero es muy cara porque hace un sampleo total de X píxeles por cada uno en pantalla, y no aplica ningún tipo de algoritmo inteligente para detectar si se debe aplicar o no (como el MSAA en los bordes, por ejemplo, o los filtros de postproceso como FXAA/MLAA) y se usa en todo pixel pintado en pantalla, incluido el interior de los triángulos (el anisotrópico se "parece" al SSAA en este punto).

      La combinación de MSAA+Aniso es la combinación de técnicas inteligentes que intentan conseguir resultados similares al uso de SSAA, y por lo menos en el caso del aniso lo consiguen y de hecho lo mejoran, el MSAA se encuentra con el problema de los motores de renderizado "deferred" actuales que le complican la vida, que si no también estaría compitiendo muy bien contra el SSAA.

      El único juego donde veo beneficios reales de uso del SSAA es en SniperV2, donde el sampleo de píxeles extra aumenta el detalle de los objetos lejanos o pequeños mostrados en pantalla, lo cual en un juego de francotiradores pinta mucho como calidad y mejora de la jugabilidade. El MSAA no puede superar el sampleo de X píxeles reales que hace el SSAA.

      Saludos.

      –-----------------

      Las 3 de la tarde, así que supuestamente se liberan los NDAs a partir de ahora:

      http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1

      Pues vaya mierda, de momento son previews, y en guru3d se dice que hasta el juevesno hay review oficial por su parte. Se ve que cobra base el rumor de necesidad de pasar las pruebas con nuevo firm o driver por el tema del boost o lo que fuera que interfiriera para las reviews originalmente pensadas para "ayer".

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @fjavi:

      Por eso me extraño a mi,yo tengo uno de 75 hz pero de 80 no los conozco,a no ser que sea algo como el adaptable y que deja hasta 80 fps,a ver que sacan al final por que ultimamente tienen otro vsync que llaman suave,aunque da problemas con juegos como dead space 3,se engancha a 30 fps a veces.

      Tambien habia pensado que en monitores de 120 hz si no da suficientes FPS ponerlo a 80 fps y mantener mas estables los frames.

      Tambien en esa comparativa de juegos esta farcry 3 que aunque va mejor en Nvidia hace un uso alto de supersampling,al igual que Hitman y con eso las AMD quiza esten mas cerca,posiblemente ocurra igual en Sleeping dogs,pero falta por ver en configuraciones y resoluciones para poder jugar que suele cambiar algo la cosa.

      saludos

      No, si Far Cry 3 precisamente es uno de los pocos títulos "gaming evolved" que no tiene supersampling sino MSAA como método principal de AA en su panel de control.

      Lo que sí puede tener es supersampling en texturas transparentes, eso sí podría ser posible porque además a este juego le viene que ni al pelo, pero las opciones que AMD ha "metido" son técnicas de Ambient Oclussion y similares.

      Los casos de Hitman, Sleeping Dogs y Sniper Elite son distintos, porque además de introducir un SSAA, que de por sí es muy costoso (para todas las gráficas, menos en las AMD por ancho de banda pero costoso al fin y al cabo), meten como "añadido" MLAA o similares via GPGPU e incluso creo que alguno de estos casos también MSAA.

      Es algo absurdo porque una vez usado SSAA no debería meterse ese tipo de añadidos extra, pero todo es para justificar un rendimiento en "todo al máximo" que favorezca a gráficas con gran ancho de banda, aunque se estropee el rendimiento totalmente.

      A mi jamás se me ocurriría usar simultáneamente SSAA+MSAA+MLAA, porque es absurdo.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • 1
    • 2
    • 10
    • 11
    • 12
    • 13
    • 14
    • 13 / 14