Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI
-
Estaba claro que el ventilador influía de manera clara en el OC de bench sintético,no así en juegos.Y que además,lo hacía sobre el TPD.Me alegro que sea cosa de drivers y no de firmware,pues eso,tiene facil solución.
Salu2.
El FAN se puede controlar desde el KGB , me refiero a min y max por si os sirve de ayuda.
Os copio un trozo de KGB de la configuracion :
# EXPERIMENTAL: This Setting makes the checksum calculate to # the same value it originally was by manipulating an unused # section of the bois. This may be needed for the new style # UEFI vbios. Set this to 1 if you want to preserve the orig # checksum. Set to 0 for the previous behavior of re-calculating # the checksum. NOTE: if you're not having driver detection # problems leave this at 0. # Preserve_Original_Checksum = 0 # Fan settings Fan_Min = 30 Fan_Max = 100 # Board power settings Max_Power_Target = 150 # Max Boost Frequency. Uncomment this if you want to change the # maximum frequency your card will boost to. #Max_Boost_Freq = 1228 # WARNING: # The following are valid voltages. I suggest you # use these values rather than coming up with your # own. 1212500 is the max and it is normally hard limited. # If you go over the max and your board is hard limited # you may actually get a much lower voltage than you # expect. # # Voltage = 1212500 # Voltage = 1200000 Voltage = 1187500 # Voltage = 1175000 # Voltage = 1162500 # Voltage = 1150000
Si con los drivers se adelanta y encima con esto puedes poner la GPU a power target de 150 % ufff y control de voltaje ya disponible a 1.21v …. esto se anima para las Titan. ;D;D
-
Geltops, una gráfica con un Bus de 128 bits con una VRAM a 2Ghz tiene un ancho de banda de 32000 Mb/s, y una gráfica con un Bus de 256 bits con una VRAM a 1Ghz tiene un ancho de banda de 32000 Mb/s, es decir, el mismo…
Saludos.
Posiblemente a el para computacion si le interese mas SP o que la grafica no este capada de GPGPU,por eso quiza si pone una 580 o una 7970 le pueda dar mejor resultado que una 680,aunque no seria cosa de que tengan mas bus seria que tienen mas poder GPGPU.
Segun el programa que use pues quiza si le tire mejor una 580 que una 680,en juegos eso no ocurriria.
saludos
-
se sabe si saldra algun bloque de agua para la titan?
-
@josele.:
se sabe si saldra algun bloque de agua para la titan?
Ya hay bloques de agua para TITAN:
EK first with GeForce GTX Titan Full-Cover water block | EKWaterBlocks
Incluso Artic,ha sacado un híbrido con RL:
Profesional Review » Inno3D iChill GTX Titan Accelero Hybrid
Salu2.
-
Hola:
De principio, quiero aclarar que no quiero llevar la contraria a nadie, enfrentamientos ni malos rollos, por favor.
Principalmente, porque no os llego ni a la suela de los zapatos en conocimientos técnicos ( muchos ya lo sabéis ).
SÓLO puedo hablar de mi experiencia….......
He puesto a trabajar unidades IGUALES del mismo proyecto en graficas con 256 bits y otras gráficas de 384 bits, y terminaban antes las gráficas con 384 bits.
¿ Diferencial de tiempo abrumadores, exagerados ? Diría que NO pero si era perceptible.
Manejemos el tiempo con un ejemplo imaginario:
Gráfica de 256 Bits: 1 minuto y 55 segundos.
Gráfica de 384 Bits: 1 minuto y 30 segundos.
Para mí SI hay diferencia .................
Saludos.
Nop, de mal rollo ninguno, pero es que hay gente que asegura que sólo por el ancho de bus el rendimiento es mejor, y no es así.
Tú mismo lo estás explicando con tu experiencia, mismas unidades pero acaban antes las de 384 bits, pero por la simple razón de que tienen más ancho de banda seguramente. Si usaran un tipo de memoria más lenta a las claras que las unidades de 256 bits, igual lo que veías era lo contrario.
Hay que entender que el ancho de bus AYUDA a obtener más ancho de banda (o más memoria total para cuando se necesite, es más fácil meter más memoria en gráficas con bus ancho), y es así el cómo se plasma a veces en mejor rendimiento. Pero de por sí no define la bondad de una arquitectura, eso lo definen otros parámetros.
-
Hola:
De principio, quiero aclarar que no quiero llevar la contraria a nadie, enfrentamientos ni malos rollos, por favor.
Principalmente, porque no os llego ni a la suela de los zapatos en conocimientos técnicos ( muchos ya lo sabéis ).
SÓLO puedo hablar de mi experiencia….......
He puesto a trabajar unidades IGUALES del mismo proyecto en graficas con 256 bits y otras gráficas de 384 bits, y terminaban antes las gráficas con 384 bits.
¿ Diferencial de tiempo abrumadores, exagerados ? Diría que NO pero si era perceptible.
Manejemos el tiempo con un ejemplo imaginario:
Gráfica de 256 Bits: 1 minuto y 55 segundos.
Gráfica de 384 Bits: 1 minuto y 30 segundos.
Para mí SI hay diferencia .................
Saludos.
¿Crees que ese trabajo lo terminaría antes una GTX285 que una Titan/Tesla K20X? La primera tiene un bus de 512 bits y las segundas un bus de 384 bits…
Por cierto, no se que tarjetas probarías pero que yo sepa no a existido nunca una misma GPU con dos buses de datos de diferente ancho, el único caso que se acerque es el del G80 vs G92 (8800GTX vs 9800GTX), y, aun así, son chips diferentes a pesar de tener bastante similitud, pero el mayor bus del G80 le proporcionaba mayor ancho de banda, vamos, lo que es seguro es que no existe una misma GPU, comercializada con dos buses diferentes y mismo ancho de banda, y con capacidades de computación (No tendría sentido ponerle un mayor bus a una GPU, más caro, para quedarte con el mismo ancho de banda que un bus menor).
-
¿Crees que ese trabajo lo terminaría antes una GTX285 que una Titan/Tesla K20X? La primera tiene un bus de 512 bits y las segundas un bus de 384 bits…
Por cierto, no se que tarjetas probarías pero que yo sepa no ha existido nunca una misma GPU con dos buses de datos de diferente ancho, el único caso que se acerque es el del G80 vs G92 (8800GTX vs 9800GTX), y, aun así, son chips diferentes a pesar de tener bastante similitud, pero el mayor bus del G80 le proporcionaba mayor ancho de banda, vamos, lo que es seguro
es que no existe una misma GPU, comercializada con dos buses diferentes y mismo ancho de banda
, y con capacidades de computación (No tendría sentido ponerle un mayor bus a una GPU, más caro, para quedarte con el mismo ancho de banda que un bus menor).
Pues en ese dato NO he caído nunca y TIENES toda la razón …..........
Es imposible que con distintos buses de datos el ancho de banda sea el mismo.
Saludos.
-
Pues en ese dato NO he caído nunca y TIENES toda la razón …..........
Es imposible que con distintos buses de datos el ancho de banda sea el mismo.
Saludos.
Imposible no, pero harto improbable, porque o se usan tipos de memoria muy distintos en los chips "iguales" de distinto ancho de bus, o el ancho de banda a memoria será claramente distinto (hay mucha diferencia entre un bus de 512, 384 y 256 bits para compensar sólo con frecuencia). Vamos, que cuando un fabricante saca el chip con un bus, es para exprimirlo bien, no tendría sentido que pudieran usar un bus menor y mismo ancho de banda por la razón que sea, porque eso iría contra sus costes de fabricación (una de las razones principales para la reducción de bus que ocurrió al pasar de las GT200 a los GF1x0 es ésa, al cambiar el tipo de memoria de GDDR3 a GDDR5 podían incrementar algo el ancho de banda usando un bus menos ancho, recortanto por tanto costes a la vez que aumentaban el rendimiento).
-
ELP3 ya me imagino que habrás jugado bastante con las 4 titanes como comentabas, cual es la media y mínimos que logras en los juegos a 1600p
Viendo que es la primera gráfica certificada 4096x2160 has probado por downsampling llevarla a esta resolución ;D ?
Salu2.-
-
ELP3 ya me imagino que habrás jugado bastante con las 4 titanes como comentabas, cual es la media y mínimos que logras en los juegos a 1600p
Viendo que es la primera gráfica certificada 4096x2160 has probado por downsampling llevarla a esta resolución ;D ?
Salu2.-
60 fps constantes con v-sync.Con todo lo que he jugado al máximo del máximo..metro very high,DOF,Physx4XMSAA,Sleeping dogs extremo,Max payne todo en muy alto y 8XMSAA e incluso Tomb raider,aunque este no vá fino del todo pues se producen unos parones como de carga algunas veces un tanto molesto.
Downsampling no lo he probado…tampoco sé si mi monitor lo soporta..
Salu2.
-
60 fps constantes con v-sync.Con todo lo que he jugado al máximo del máximo..metro very high,DOF,Physx4XMSAA,Sleeping dogs extremo,Max payne todo en muy alto y 8XMSAA e incluso Tomb raider,aunque este no vá fino del todo pues se producen unos parones como de carga algunas veces un tanto molesto.
Downsampling no lo he probado…tampoco sé si mi monitor lo soporta..
Salu2.
Es cuestión de probar pero me parece que no viene por el lado del monitor sino de la grafica, acabo de probarlo en mi tv 1080p y logre 2560x1600 y tambien lo probe en un monitor 19 samsung 940s resolución 1280x1024) y tambien da 2560x1600 probe el crysis 3 y el bench del resident evil 6 y funciona aunque la resolucion adecuada para mi tv de 2560x1440.
O combinación de ambas (monitor y GPU) por lo que lei el Dell U2711 hace los 2160p.-
te dejo el tutorial pero me da que podria funcionar a 2160p
Downsampling, a simple method for making your pc-games look better. - NeoGAF
Salu2.
-
Es cuestión de probar pero me parece que no viene por el lado del monitor sino de la grafica, acabo de probarlo en mi tv 1080p y logre 2560x1600 y tambien lo probe en un monitor 19 samsung 940s resolución 1280x1024) y tambien da 2560x1600 probe el crysis 3 y el bench del resident evil 6 y funciona aunque la resolucion adecuada para mi tv de 2560x1440.
O combinación de ambas (monitor y GPU) por lo que lei el Dell U2711 hace los 2160p.-
te dejo el tutorial pero me da que podria funcionar a 2160p
Downsampling, a simple method for making your pc-games look better. - NeoGAF
Salu2.
El mio es un 3011.Y todos los anteriores downsampling que intenté,fueron fallidos..
-
El mio es un 3011.Y todos los anteriores downsampling que intenté,fueron fallidos..
Tienes que probarlos con los ultimos drivers y funciona
acabo de probar en otra tv y logre 3840x2160 30 Hz (dvi-hdmi) por vga se queda en 1600p.
Se ve clamente en el Bench del Resident evil 6 como caen los fps.
a 1080p - escena 1 36 fps - escena 2 30 fps
a 1600p - escena 1 24 fps - escena 2 17 fps
a 2160p - escena 1 14 fps - escena 2 9 fpsSalu2.-
-
Que bueno lo del downsampling, me funciona bien en mi 24" a 2560x1440! En los juegos que no puedes escalar la UI es una putada porque se be minúsculo, pero la calidad mejora considerablemente. He probado con mayores pero se queda en negro.
-
Elp3 prueba un downsampling de 2800x1700. Ese lo podrás hacer sin problemas, yo tengo el mismo monitor que tú, y no puedo subirlo mas
-
Yo tengo un HP 2710m de 27" y me funciona a 2560x1440
-
ELP3 te dejo un link para lograr los 3840*2160 incluso en formato 16:10
Downsampling – A full guide to achieve 3840x2160 resolution – NVIDIA only - ScreenArchery Wiki
Este fin de semana realizare unos benchs en 1080p, 1440p y 2160p y subire los resultados.-
Salu2.-
-
Buenas compañeros.
Antes de nada, felicitarte ELP3 por tus esfuerzos de compartir tus sensaciones y experiencias con todos nosotros. Menuda pasada de TITAN son bestias andantes….....
Así da gusto jugar en surround a los temas, como Crysis y tomb raider.... :wall:
Me alegro mucho, que otra vez hayas batido otro record en 3DMARK, ya que el año pasado lo conseguistes con nuestras queridisimas 4 way 680.Aunque no poste mucho por falta de tiempo, intento seguiros leyendo todos vuestros post...........
Un abrazo.
-
Elp3 prueba un downsampling de 2800x1700. Ese lo podrás hacer sin problemas, yo tengo el mismo monitor que tú, y no puedo subirlo mas
Más que un problema del monitor será un problema de los estándares a cumplir para cada resolución en cuanto a ancho de banda disponible para la salida de vídeo, aunque éste sea totalmente ficticia. Me explico:
Se supone que si activas el escalado de pantalla por GPU, y no por la pantalla en sí, no existe realmente un cambio de resolución respecto a la nativa del mismo, y por tanto no existe ninguna exigencia a mayores contra la pantalla.
Lo que sí puede ser distinto es la sincronización y que las resoluciones internamente el sistema evalúa si se pueden o no usar por ancho de banda (MHz), según cómo se conecte dicha pantalla. Resoluciones como la de 4K hacen que un Dual link DVI se quede corto, y aunque no sea una limitación real de la pantalla ni la comunicación con ésta, ya que sigue funcionando a la resolución nativa (el downsampling ocurre en la gráfica, no en la pantalla, y todo lo que se envía a ésta es en resolución nativa).
Pero vamos, que el sistema sigue a lo suyo aunque el escalado se haga en la gpu, y puede "no ser capaz" de usar ciertas resoluciones por temas de cableado, aunque técnicamente no está usando esa resolución superior (lo que sí puede cambiar es la forma de cómo se envía a pantalla la información, lo cual puede provocar algunos de los problemas al usar cierto tipo de pantallas y cableado). Supongo que usar un displayport o algo del estilo puede permitir alcanzar mejor los 4K.
-
Más que un problema del monitor será un problema de los estándares a cumplir para cada resolución en cuanto a ancho de banda disponible para la salida de vídeo, aunque éste sea totalmente ficticia. Me explico:
Se supone que si activas el escalado de pantalla por GPU, y no por la pantalla en sí, no existe realmente un cambio de resolución respecto a la nativa del mismo, y por tanto no existe ninguna exigencia a mayores contra la pantalla.
Lo que sí puede ser distinto es la sincronización y que las resoluciones internamente el sistema evalúa si se pueden o no usar por ancho de banda (MHz), según cómo se conecte dicha pantalla. Resoluciones como la de 4K hacen que un Dual link DVI se quede corto, y aunque no sea una limitación real de la pantalla ni la comunicación con ésta, ya que sigue funcionando a la resolución nativa (el downsampling ocurre en la gráfica, no en la pantalla, y todo lo que se envía a ésta es en resolución nativa).
Pero vamos, que el sistema sigue a lo suyo aunque el escalado se haga en la gpu, y puede "no ser capaz" de usar ciertas resoluciones por temas de cableado, aunque técnicamente no está usando esa resolución superior (lo que sí puede cambiar es la forma de cómo se envía a pantalla la información, lo cual puede provocar algunos de los problemas al usar cierto tipo de pantallas y cableado). Supongo que usar un displayport o algo del estilo puede permitir alcanzar mejor los 4K.
Efectivamente creo que por ahí ván los tiros.el DVI no dá para mucho mas…de todas formas,con 2560X1600p y pudiendo añadir la cantidad de MSAA.SSAA etc..que admiten los juegos,El Max Payne 3,con 8xMSAA a 1600p es verdaderamente espectacular como se vé..el donwsampling no es precisamente una cosa que me quite el sueño..;)
salu2.