Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI
-
@PGS:
Vamos, lo que lleva haciendo Nvidia desde hace años y años. Lo que ahora afecta a vuestra empresa favorita y ya no es bueno que manden ingenieros para "ayudar" a optimizar los juegos para su hardware, lo que antes era visión de futuro y buenísimo para el usuario, ahora es malísimo.
Esto pasa desde siempre, vamos desde que las empresas de hardware empezaron a patrocinar a las de software y viceversa, y siempre es malo para el usuario final.
Perdona, pero las personalizaciones en el comentario y lo de "vuestra empresa favorita" te lo reservas, el tono el justo, que ya sabemos que se empieza señalando con el dedo y acusando de parcialidad y se acaba de otra forma. Yo tengo pruebas de la mala praxis de AMD en varios casos de "optimizaciones", y de forma que jamás se han visto en nvidia, cuya mala praxis si se ha centrado en algo es en bloquear características en su hard (uso propietario de innovaciones).
El peor caso de los últimos tiempos de parte de nvidia fue con Crysis 2, con el tema del "mar de teselado", algo que de todas formas apenas sobrecargaba las gpus (lo que sí sobrecargaba de verdad era el detalle excesivo de teselado en detalles nimios de aceras y similares, eso sí tenía algo de peso y era lo que realmente era cuestionable en su utilidad, lo del mar de teselado… un absurdo en comparación). Pero casos como por ejemplo los de HAWX2 o Lost Planet 2 con su teselado estaban sobradamente justificados, otro asunto es que el hard de AMD tuviera y tenga unos teseladores de pena, que en gran medida hayan retrasado la adopción del teselado, la principal característica innovadoras de DX11, por muchos títulos.
Se han realizado campañas de desprestigio contra el uso de teselado "masivo" por AMD (encontrarás razonable que si dijera "tu marca favorita" no vendría a cuento, ¿verdad?, simplemente como ejemplo te lo digo), diciendo auténticos absurdos como que es totalmente innecesario usar triángulos de 16 píxeles o menos de área, cuando esto no tiene sentidgo alguno (un triángulo de 16 píxeles tiene unas dimensiones aproximadas de 6x6 píxeles, más que visible con bordes incluidos en una pantalla actual, generar triángulos más pequeños sigue teniendo sentido, incluso).
Pero hay implementaciones de efectos que se han hecho en AMD que no tienen sentido alguno. No tiene sentido alguno usar SSAA y añadir cualquier otra tecnología de AA a mayores, es ridículo. Tampoco tiene sentido que el rendimiento caiga como cae con algunos efectos totalmente similares a los implementados en juegos no-GamingEvolved o incluso TWIMTBP que rinden adecuadamente en nvidia (y a veces mejor en AMD).
Está claro, si un juego sale con bench integrado en Gaming Evolved es que ha sido claramente manipulado para ofrecer resultados artificiosos. Se ha cumplido en los últimos Gaming Evolved con benchs, todos básicamente van mal en nvidia. La razón de incluir benchs en juegos tan influidos es simple, es la de afectar resultados de reviews dado que en éstas se tiende a adoptar juegos con benchs integrados ya que son cómodos para los reviewers. Después tenemos juegos que no llevan benchs integrados pero que son considerados muy importantes a nivel técnico, como Crysis 3 o Far Cry3, que curiosamente rinden muy bien en nvidia, así que habría que hablar de 2 niveles de juegos Gaming Evolved, los que ponen al servicio de AMD su rendimiento en detrimento de la calidad al usuario final, y los que la relación Gaming Evolved no se plantea con dicho servilismo, sino como un plus para AMD y el propio desarrollador donde testar y promocionar los productos de ambos conjuntamente.
Hay una gran diferencia entre implementar una característica de forma masiva pero mejorando la calidad gráfica (LP2, HAWX 2) e implementar una característica de tal forma que hunda el rendimiento en el rival aún a costa de perder algo en su propia plataforma (pero mucho menos).
La mejor prueba de esto se puede encontrar en la mejora espontánea de Sniper Elite V2, gran juego que sin embargo está lastrado por una implementación penosa de ciertos efectos por GPGPU. Yo a este juego le tenía el ojo ya encima porque ya sabía qué era lo que lastraba el rendimiento concretamente en origen, con las nvidia. Ya le dedicaré una entrada en el blog y si hace falta dejaré alguna de las imágenes por acá de resultados porque tienen sustancia.
Es un caso muy claro de inserción de características para un lastre impresionante en el rival. Eso ni siquiera se vió en el mencionado caso de Crysis 2 con su "mar de teselado". Y si fuera un caso aislado el de Sniper V2, lo pasaría, pero ya van varios casos muy similares. Y parecer que Tomb es otro caso más a añadir a la lista.
Así también gano yo reviews por un 5-8%... :troll:
-
Vamos a ver..esto vá especialmente para maldo o wendi,ya que sabeis mas de esto que el resto de los mortales..
En Nvidia,al menos mi caso con TITAN,al poco de empezar la partida,ya no se puede jugar con el pelo "fregona" y el Super Sampling activado pues ocurre esto:
El pelo deja de ser pelo y se convierte en una mancha borrosa que vá y viene…ojito también a la Vram consumida según afterburner a mi resolución y 4 SSAA,como sea mas o menos verdad...a ver quien tiene una gráfica con mas de 4GB de Vram y además con la potencia necesaria para moverlo...AMD desde luego no..
Sin embargo con FXAA,el pelo "fregona" se vé "normal"
Sabeis si esto es solo con Nvidia,o sé produce también con AMD,algún tipo de incompatibilidad?
En ambos casos el resto de opciones están la máximo.
Salu2.
-
Vamos a ver..esto vá especialmente para maldo o wendi,ya que sabeis mas de esto que el resto de los mortales..
En Nvidia,al menos mi caso con TITAN,al poco de empezar la partida,ya no se puede jugar con el pelo "fregona" y el Super Sampling activado pues ocurre esto:
El pelo deja de ser pelo y se convierte en una mancha borrosa que vá y viene…ojito también a la Vram consumida según afterburner a mi resolución y 4 SSAA,como sea mas o menos verdad...a ver quien tiene una gráfica con mas de 4GB de Vram y además con la potencia necesaria para moverlo...AMD desde luego no..
Sin embargo con FXAA,el pelo "fregona" se vé "normal"
Sabeis si esto es solo con Nvidia,o sé produce también con AMD,algún tipo de incompatibilidad?
En ambos casos el resto de opciones están la máximo.
Salu2.
Como dices es la vram y un bug del juego. Seguro que si dejas SSAAx4 pero bajas la resolución a 1080p el pelo ya se verá bien.
-
-
Vamos a ver..esto vá especialmente para maldo o wendi,ya que sabeis mas de esto que el resto de los mortales..
En Nvidia,al menos mi caso con TITAN,al poco de empezar la partida,ya no se puede jugar con el pelo "fregona" y el Super Sampling activado pues ocurre esto:
El pelo deja de ser pelo y se convierte en una mancha borrosa que vá y viene…ojito también a la Vram consumida según afterburner a mi resolución y 4 SSAA,como sea mas o menos verdad...a ver quien tiene una gráfica con mas de 4GB de Vram y además con la potencia necesaria para moverlo...AMD desde luego no..
Sin embargo con FXAA,el pelo "fregona" se vé "normal"
Sabeis si esto es solo con Nvidia,o sé produce también con AMD,algún tipo de incompatibilidad?
En ambos casos el resto de opciones están la máximo.
Salu2.
A ver, ya he tenido mi primera toma de contacto sobre el rendimiento del juego con sus distintas opciones, y eso que nos muestras es muy anómalo, para empezar:
Supongo que activas el SSAA dentro del propio juego, por alguna razón extraña éste no me funciona con los 314.14 activándolo desde el menú de configuración del lanzador del juego.
Una vez activado el SSAA 4x, observo una anomalía muy fuerte y "similar" a la tuya en que afecta al pelo, pero de una manera distinta. Como tengo una kepler "pequeña" las diferencias pueden ser explicadas por las diferencias entre modelos, empezando por tener 2 GB de VRAM. En mi caso con 2x SSAA y todo en ultimate el test se comporta normalmente consumiendo unos 1,8GB de VRAM, pero al activar 4x SSAA, además de que el rendimiento se hunde mucho más de lo esperable, se pasa a consumir unos 1,5GB de VRAM, claramente imposible con estas codiciones. O sea, que no es que agote la memoria VRAM sólamente, es que además hace algo muy raro para de pronto dejar un hueco de más de 512 MB de VRAM sin usar, dañando más al rendimiento.
En tu caso la VRAM no es un problema, pero sin embargo tienes ese problema de emborronado, yo con el tema del 4xSSAA también he visto un artefacto gráfico con el pelo, y es que parpadeaba en tonos amarillentos el cabello de Lara cada poco (¿a punto de entrar en modo superguerrero?).
Son fallos extrañísimos, así que diré sólo qué se supone que deberían estar haciendo en ese momento las gráficas respecto al cabello:
Entrar en modo GPGPU, cargar los datos pertinentes y correr los computing shaders de simulación de cabellos (listas linkadas), calcular su posición en el momento dado de simulación del juego y guardar esos datos o en forma de una malla 3D, o incluso pasar de esto y calcular ya en este modo la proyección del cabello en la imagen 2D (e información de sombreado), y pasar a través de un buffer la información del cabello al modo 3D de la gráfica (vuelta a entrar en este modo) para componer la imagen final.
Sea como sea, hay un momento donde se renderiza el cabello, y que se guarda en forma de textura/buffer para uso posterior. El parpadeo es una anomalía muy importante, pero más es el "emborronado", que quizás apoya más a un posible uso de un buffer de imagen de los cabellos. Quizás se calcula y "renderiza" el cabello sin texturizar, y en mi caso debido a la falta de VRAM ocurre que simplemente se muestra a veces sin renderizar totalmente éste, con un color "plano" del buffer pasado desde el modo GPGPU (es posible que haya otros buffers para información adicional como info de brillos, etc), y en tu caso con VRAM de sobra el problema se transforma en algún problema bastante grave de cómo se implementa la imagen final renderizada del cabello al resto de la imagen (parece que han aplicado algún tipo de reescalado de esa imagen prerenderizada de baja calidad para el cálculo de la imagen a la resolución interna del SSAA, y después sufre un downsampling que acaba de joder la marrana).
No tengo ni idea de si pasa en las gráficas AMD, pero parece un problema de cómo se gestionan los pasos de renderizado del cabello en uso del SSAA 4x.
Y por cierto, ¿tú ves el campo de fuerza que cubre a Lara?, sí, el mismo que evita que el cabello se apoye de ninguna de las maneras en sus hombros o su espalda, dejando unos 3-4 dedos de distancia siempre entre cabello y cuerpo.
Está hecha toda una Jedi. Muy profesional el TressFX (Manquiña dixit).
–-----
PD: Qué curioso, al mirar mejor las capturas de ELP3 veo que la "mancha" es bastante simétrica pero NO cubre todo el cabello (se ven las puntas, etc, fuera de la mancha). Tiene un curioso colorido con zonas más claras y otras oscuras, ¿será un mapeado de sombreado/iluminación del cabello?. Pero debería usarse para calcular el valor de color/brillo de cada cabello final, no para aparecer así encima del mismo. :ugly:
Ni idea de qué pasa exactamente, pero vamos, bug gordo sin duda.
-
Entonces que pasa,que no puedo jugar a 1600P con SSAA? si tengo 6 GB VRAM…no entiendo..
Pues Maldo...acabo de hacerlo a 1200p,y sigue ocuriendo lo mismo:
Pues vaya guasa. Yo lo puedo poner a 1200p con SSAAx2 y el pelo se ve bien. No he probado más porque el rendimiento ya no eran 60 constantes y no puedo jugar. Con SSAAx2 también te lo hace? Sí he visto otros usuarios que incluso con FXAA si subían la resolución por encima de 1600p veían mal el pelo.
-
A ver, ya he tenido mi primera toma de contacto sobre el rendimiento del juego con sus distintas opciones, y eso que nos muestras es muy anómalo, para empezar:
Supongo que activas el SSAA dentro del propio juego, por alguna razón extraña éste no me funciona con los 314.14 activándolo desde el menú de configuración del lanzador del juego.
Una vez activado el SSAA 4x, observo una anomalía muy fuerte y "similar" a la tuya en que afecta al pelo, pero de una manera distinta. Como tengo una kepler "pequeña" las diferencias pueden ser explicadas por las diferencias entre modelos, empezando por tener 2 GB de VRAM. En mi caso con 2x SSAA y todo en ultimate el test se comporta normalmente consumiendo unos 1,8GB de VRAM, pero al activar 4x SSAA, además de que el rendimiento se hunde mucho más de lo esperable, se pasa a consumir unos 1,5GB de VRAM, claramente imposible con estas codiciones. O sea, que no es que agote la memoria VRAM sólamente, es que además hace algo muy raro para de pronto dejar un hueco de más de 512 MB de VRAM sin usar, dañando más al rendimiento.
En tu caso la VRAM no es un problema, pero sin embargo tienes ese problema de emborronado, yo con el tema del 4xSSAA también he visto un artefacto gráfico con el pelo, y es que parpadeaba en tonos amarillentos el cabello de Lara cada poco (¿a punto de entrar en modo superguerrero?).
Son fallos extrañísimos, así que diré sólo qué se supone que deberían estar haciendo en ese momento las gráficas respecto al cabello:
Entrar en modo GPGPU, cargar los datos pertinentes y correr los computing shaders de simulación de cabellos (listas linkadas), calcular su posición en el momento dado de simulación del juego y guardar esos datos o en forma de una malla 3D, o incluso pasar de esto y calcular ya en este modo la proyección del cabello en la imagen 2D (e información de sombreado), y pasar a través de un buffer la información del cabello al modo 3D de la gráfica (vuelta a entrar en este modo) para componer la imagen final.
Sea como sea, hay un momento donde se renderiza el cabello, y que se guarda en forma de textura/buffer para uso posterior. El parpadeo es una anomalía muy importante, pero más es el "emborronado", que quizás apoya más a un posible uso de un buffer de imagen de los cabellos. Quizás se calcula y "renderiza" el cabello sin texturizar, y en mi caso debido a la falta de VRAM ocurre que simplemente se muestra a veces sin renderizar totalmente éste, con un color "plano" del buffer pasado desde el modo GPGPU (es posible que haya otros buffers para información adicional como info de brillos, etc), y en tu caso con VRAM de sobra el problema se transforma en algún problema bastante grave de cómo se implementa la imagen final renderizada del cabello al resto de la imagen (parece que han aplicado algún tipo de reescalado de esa imagen prerenderizada de baja calidad para el cálculo de la imagen a la resolución interna del SSAA, y después sufre un downsampling que acaba de joder la marrana).
No tengo ni idea de si pasa en las gráficas AMD, pero parece un problema de cómo se gestionan los pasos de renderizado del cabello en uso del SSAA 4x.
Y por cierto, ¿tú ves el campo de fuerza que cubre a Lara?, sí, el mismo que evita que el cabello se apoye de ninguna de las maneras en sus hombros o su espalda, dejando unos 3-4 dedos de distancia siempre entre cabello y cuerpo.
Está hecha toda una Jedi. Muy profesional el TressFX (Manquiña dixit).
–-----
PD: Qué curioso, al mirar mejor las capturas de ELP3 veo que la "mancha" es bastante simétrica pero NO cubre todo el cabello (se ven las puntas, etc, fuera de la mancha). Tiene un curioso colorido con zonas más claras y otras oscuras, ¿será un mapeado de sombreado/iluminación del cabello?. Pero debería usarse para calcular el valor de color/brillo de cada cabello final, no para aparecer así encima del mismo. :ugly:
Ni idea de qué pasa exactamente, pero vamos, bug gordo sin duda.
Ese fallo de ELP3 y que tienen otros usuarios con resoluciones muy grandes creo que es muy posterior al calculo de la posición del pelo. Cuando todos los cálculos acaban, hay unos pases de postproceso para suavizar el pelo aplicando antialias a cada uno. Ese postproceso es el que creo que no está bien dimensionado para resoluciones altas y por eso se convierte en borrón.
-
Ese fallo de ELP3 y que tienen otros usuarios con resoluciones muy grandes creo que es muy posterior al calculo de la posición del pelo. Cuando todos los cálculos acaban, hay unos pases de postproceso para suavizar el pelo aplicando antialias a cada uno. Ese postproceso es el que creo que no está bien dimensionado para resoluciones altas y por eso se convierte en borrón.
Pues qué quieres que te diga, me parece demasiado emborronado por una mala aplicación de un postproceso que seguramente se limite a aplicar el FXAA o poco más. A mí lo que me extraña es la simetría que tiene el borrón final, y que no afecta en absoluto a las puntas del pelo, lo cual hace que tenga dudas sobre el tema del postproceso o escalado del pelo (al fin y al cabo, el supersampling consiste en un upsampling y posterior downsampling de la imagen). Si fuera así tendría que estar emborronado todo el pelo, no casi todo menos las puntas.
Además que los borrones cuadrarían bastante bien en sus tonos con lo que sería la iluminación a aplicar al cabello.
Pero sea lo que sea, es cosa de cómo se ha hecho el tema. Fina fina, "hoyga".
PD: Por cierto, curioso que la escena del bench integrado del juego, que ocurre al principio nada más salir de la cueva, en bench me da con ultimate unos 41-42 fps, pero en la escena de juego real anda sobre 60-70 fps con facilidad.
Será temas de postproceso, seguro… ¬¬
-
Al estar relacionado con la resolución repito que no creo que sea nada relacionado con cálculos físicos. ManuelG de nvidia dice que ya han visto el fallo y que se lo están mirando.
-
Perdona, pero las personalizaciones en el comentario y lo de "vuestra empresa favorita" te lo reservas, el tono el justo, bla, bla, bla, bla, ….
Nvidia y AMD han hecho trampas siempre que han podido, a mi no me vas a vender la moto a estas alturas de que AMD está haciendo lo nunca visto. Por cierto, no he usado ningún tono en especial, así que mejor te guardas tú el tonito a superioridad que te gastas.
Las optimizaciones y desoptimizaciones son una guarrada las haga quien las haga, pero cuando se empezó con el "meant to be played" muchos ya advertimos que la cosa acabaría en esto y mucha gente lo negó e incluso dijo que eso era bueno para el usuario que así sus tarjetas irían mejor y que la culpa era de ATI por no hacer lo mismo…pues hala aquí tenemos la guerra de maletines y los usuarios "superbeneficiados".
-
Al estar relacionado con la resolución repito que no creo que sea nada relacionado con cálculos físicos. ManuelG de nvidia dice que ya han visto el fallo y que se lo están mirando.
Es que no creo que sea resolución.
Como digo,a 1200p con SSAA X4 también lo hace…y 1200p,no creo que sea una resolución superespecial..
Saludos.
-
Es que no creo que sea resolución.
Como digo,a 1200p con SSAA X4 también lo hace…y 1200p,no creo que sea una resolución superespecial..
Saludos.
1200p SSAAx4 es mucha resolución. Supersampling multiplica la resolución, no es MSAA.
1920x1200 SSAAx2 sería como 2880x1600
1920x1200 SSAAx4 sería como 3840x24002560x1600 SSAAx2 sería como 3620x2260
2560x1600 SSAAx4 sería como 5120x3200Pero no estoy diciendo que sea especial porque consuma mucho rendimiento, que eso te sobraría, es que hay un bug que a partir de una resolución el pelo no se ve bien. En cuanto lo arreglen irás bien.
-
@PGS:
Nvidia y AMD han hecho trampas siempre que han podido, a mi no me vas a vender la moto a estas alturas de que AMD está haciendo lo nunca visto. Por cierto, no he usado ningún tono en especial, así que mejor te guardas tú el tonito a superioridad que te gastas.
Las optimizaciones y desoptimizaciones son una guarrada las haga quien las haga, pero cuando se empezó con el "meant to be played" muchos ya advertimos que la cosa acabaría en esto y mucha gente lo negó e incluso dijo que eso era bueno para el usuario que así sus tarjetas irían mejor y que la culpa era de ATI por no hacer lo mismo…pues hala aquí tenemos la guerra de maletines y los usuarios "superbeneficiados".
Lo que faltaba por leer. Perdona, pero ell "tonito de superioridad" es el que tú has empezado a usar a la hora de decir "vuestra empresa favorita" haciendo lo que es una acusación poco velada que no viene a cuento (que yo sepa, tú eres el primero que menciona a los demás y con esa acusación), así que primero respeta, no vengas con esos "tonitos" y después si tal exige tú a los demás que no te vengan con tonitos también.
Y por cierto, con el plan TWIMTBP JAMAS se ha visto que un juego en AMD rinda un 50% menos en éstas que en nvidia con tarjetas similares. Y si quieres ejemplo de las guarradas que ha llegado a hacer AMD coges y te miras los rendimientos con Dirt Showdown, las "optimizaciones" activadas y qué pasa con el rendimiento.
AMD nunca ha necesitado de especial ayuda para tener problemas de rendimiento, de hecho los ha tenido con programas Gaming Evolved como es Dragon Age 2, y algún caso más, que es de los juegos que de lejos peor les ha ido a las gráficas GCN vs Kepler.
Ahora me dirás que eso era un "boicot de nvidia". Te insisto que nvidia, su "especialidad" en estos temas más que hundir el rendimiento rival ha sido la de implementar características propietarias, como PhysX, AA "exclusivo" o el uso de técnicas que le vengan bien.
Por supuesto que han habido casos de "boicot", pero son los menos frente a optimizaciones exclusivas. Y no sé a qué viene un simplón "y tú más" cuando estamos hablando de la situación actual provocada por AMD en juegos actuales, no de lo que hicieron panchito y benito hace 2 días.
-
1200p SSAAx4 es mucha resolución. Supersampling multiplica la resolución, no es MSAA.
1920x1200 SSAAx2 sería como 2880x1600
1920x1200 SSAAx4 sería como 3840x24002560x1600 SSAAx2 sería como 3620x2260
2560x1600 SSAAx4 sería como 5120x3200Pero no estoy diciendo que sea especial porque consuma mucho rendimiento, que eso te sobraría, es que hay un bug que a partir de una resolución el pelo no se ve bien. En cuanto lo arreglen irás bien.
También me ocurre con 1080p y 1200p X2 SSAA…una bug..pero de Nvidia,juego o ambas?
Por cierto,la cuerdas del crysis 3,hasta que no haya parche,nada no?
Un slaudo.
-
@PGS:
Nvidia y AMD han hecho trampas siempre que han podido, a mi no me vas a vender la moto a estas alturas de que AMD está haciendo lo nunca visto. Por cierto, no he usado ningún tono en especial, así que mejor te guardas tú el tonito a superioridad que te gastas.
Las optimizaciones y desoptimizaciones son una guarrada las haga quien las haga, pero cuando se empezó con el "meant to be played" muchos ya advertimos que la cosa acabaría en esto y mucha gente lo negó e incluso dijo que eso era bueno para el usuario que así sus tarjetas irían mejor y que la culpa era de ATI por no hacer lo mismo…pues hala aquí tenemos la guerra de maletines y los usuarios "superbeneficiados".
te puedo garantiazar que los que estamos seguiendo ese hilo no somos muy maniaticos y nos da igual Ati que Nvidia y en especial hace mucho tiempo que leo a Elp3 y a el le da lo mismo siempre a dicho lo que pensaba
Un saludo
-
Bueno…ya es oficial:
http://www.3dmark.com/hall-of-fame/3dmark-11-top-extreme-preset/
Después del intocable Kingpin,voy yo..
Lo he tenido que hacer por huevos con el 2011..no me gusta nada esta plataforma,tiene menos rendimiento que el ivy,y además,el micro ya no es capaz de subir de 5,0GHZ..pero los 12 hilos hacen mucho en las pruebas de física y no me ha quedado mas remedio que utilizarla.
Por supuesto las gráficas están de stock,por aire y sin utilizar voltaje..para qué? si no sirve de momento..
Espero que os guste..;)
Un saludo.
-
wOw Felcidades amigo se ve super bien ;D , me uno al grupo de los F5f5f5f5f5f5.
-
Bueno…ya es oficial:
http://www.3dmark.com/hall-of-fame/3dmark-11-top-extreme-preset/
Después del intocable Kingpin,voy yo..
Lo he tenido que hacer por huevos con el 2011..no me gusta nada esta plataforma,tiene menos rendimiento que el ivy,y además,el micro ya no es capaz de subir de 5,0GHZ..pero los 12 hilos hacen mucho en las pruebas de física y no me ha quedado mas remedio que utilizarla.
Por supuesto las gráficas están de stock,por aire y sin utilizar voltaje..para qué? si no sirve de momento..
Espero que os guste..;)
Un saludo.
Enhorabuena.
La que me parece muy buena puntuacion es la de Hazzan,pues son 680,aunque esos van con LN2 y es muy distinto a hacerlo por aire,el LN2 te asegura mas frecuencia tanto en CPU como a las GPU y en esos benchmark se nota.
saludos
-
Hasta la semana que viene no tendré la Titan :wall:
Mientras espero, a ver si me resolvéis unas dudas:
- Drivers, ¿los beta o los WHQL?
- Para overclock, veo que se usa el EVGA Precission, yo estaba acostumbrado al MSI Afterburner, ¿es por algún motivo?
- El overdrive del monitor, la función de dar más de los 60Hz, ¿alguien la ha probado?
- En cuanto al overclock, por lo que leo, conviene dejar el ventilador en auto, y subir al tope linkados el Power y la Temperatura, sin ser necesario tocar el voltaje, ¿no?. Además, vengo de unas GTX 580, no tenían Boost, por lo que no tengo muy claro si hay que tocar el offset o bien eso no hace falta tocarlo y con subir la velocidad básica es suficiente.
Gracias por anticipado.
P.D. Vaya puntuación salvaje, y que gusto da verse ahí, recuerdo cuando hace años metí una puntuación entre las diez primeras la ilusión que me hizo …....
-
Bueno…ya es oficial:
http://www.3dmark.com/hall-of-fame/3dmark-11-top-extreme-preset/
Después del intocable Kingpin,voy yo..
Lo he tenido que hacer por huevos con el 2011..no me gusta nada esta plataforma,tiene menos rendimiento que el ivy,y además,el micro ya no es capaz de subir de 5,0GHZ..pero los 12 hilos hacen mucho en las pruebas de física y no me ha quedado mas remedio que utilizarla.
Por supuesto las gráficas están de stock,por aire y sin utilizar voltaje..para qué? si no sirve de momento..
Espero que os guste..;)
Un saludo.
Enhorabuena ;D