Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI
-
Hola:
De principio, quiero aclarar que no quiero llevar la contraria a nadie, enfrentamientos ni malos rollos, por favor.
Principalmente, porque no os llego ni a la suela de los zapatos en conocimientos técnicos ( muchos ya lo sabéis ).
SÓLO puedo hablar de mi experiencia….......
He puesto a trabajar unidades IGUALES del mismo proyecto en graficas con 256 bits y otras gráficas de 384 bits, y terminaban antes las gráficas con 384 bits.
¿ Diferencial de tiempo abrumadores, exagerados ? Diría que NO pero si era perceptible.
Manejemos el tiempo con un ejemplo imaginario:
Gráfica de 256 Bits: 1 minuto y 55 segundos.
Gráfica de 384 Bits: 1 minuto y 30 segundos.
Para mí SI hay diferencia .................
Saludos.
Nop, de mal rollo ninguno, pero es que hay gente que asegura que sólo por el ancho de bus el rendimiento es mejor, y no es así.
Tú mismo lo estás explicando con tu experiencia, mismas unidades pero acaban antes las de 384 bits, pero por la simple razón de que tienen más ancho de banda seguramente. Si usaran un tipo de memoria más lenta a las claras que las unidades de 256 bits, igual lo que veías era lo contrario.
Hay que entender que el ancho de bus AYUDA a obtener más ancho de banda (o más memoria total para cuando se necesite, es más fácil meter más memoria en gráficas con bus ancho), y es así el cómo se plasma a veces en mejor rendimiento. Pero de por sí no define la bondad de una arquitectura, eso lo definen otros parámetros.
-
Hola:
De principio, quiero aclarar que no quiero llevar la contraria a nadie, enfrentamientos ni malos rollos, por favor.
Principalmente, porque no os llego ni a la suela de los zapatos en conocimientos técnicos ( muchos ya lo sabéis ).
SÓLO puedo hablar de mi experiencia….......
He puesto a trabajar unidades IGUALES del mismo proyecto en graficas con 256 bits y otras gráficas de 384 bits, y terminaban antes las gráficas con 384 bits.
¿ Diferencial de tiempo abrumadores, exagerados ? Diría que NO pero si era perceptible.
Manejemos el tiempo con un ejemplo imaginario:
Gráfica de 256 Bits: 1 minuto y 55 segundos.
Gráfica de 384 Bits: 1 minuto y 30 segundos.
Para mí SI hay diferencia .................
Saludos.
¿Crees que ese trabajo lo terminaría antes una GTX285 que una Titan/Tesla K20X? La primera tiene un bus de 512 bits y las segundas un bus de 384 bits…
Por cierto, no se que tarjetas probarías pero que yo sepa no a existido nunca una misma GPU con dos buses de datos de diferente ancho, el único caso que se acerque es el del G80 vs G92 (8800GTX vs 9800GTX), y, aun así, son chips diferentes a pesar de tener bastante similitud, pero el mayor bus del G80 le proporcionaba mayor ancho de banda, vamos, lo que es seguro es que no existe una misma GPU, comercializada con dos buses diferentes y mismo ancho de banda, y con capacidades de computación (No tendría sentido ponerle un mayor bus a una GPU, más caro, para quedarte con el mismo ancho de banda que un bus menor).
-
¿Crees que ese trabajo lo terminaría antes una GTX285 que una Titan/Tesla K20X? La primera tiene un bus de 512 bits y las segundas un bus de 384 bits…
Por cierto, no se que tarjetas probarías pero que yo sepa no ha existido nunca una misma GPU con dos buses de datos de diferente ancho, el único caso que se acerque es el del G80 vs G92 (8800GTX vs 9800GTX), y, aun así, son chips diferentes a pesar de tener bastante similitud, pero el mayor bus del G80 le proporcionaba mayor ancho de banda, vamos, lo que es seguro
es que no existe una misma GPU, comercializada con dos buses diferentes y mismo ancho de banda
, y con capacidades de computación (No tendría sentido ponerle un mayor bus a una GPU, más caro, para quedarte con el mismo ancho de banda que un bus menor).
Pues en ese dato NO he caído nunca y TIENES toda la razón …..........
Es imposible que con distintos buses de datos el ancho de banda sea el mismo.
Saludos.
-
Pues en ese dato NO he caído nunca y TIENES toda la razón …..........
Es imposible que con distintos buses de datos el ancho de banda sea el mismo.
Saludos.
Imposible no, pero harto improbable, porque o se usan tipos de memoria muy distintos en los chips "iguales" de distinto ancho de bus, o el ancho de banda a memoria será claramente distinto (hay mucha diferencia entre un bus de 512, 384 y 256 bits para compensar sólo con frecuencia). Vamos, que cuando un fabricante saca el chip con un bus, es para exprimirlo bien, no tendría sentido que pudieran usar un bus menor y mismo ancho de banda por la razón que sea, porque eso iría contra sus costes de fabricación (una de las razones principales para la reducción de bus que ocurrió al pasar de las GT200 a los GF1x0 es ésa, al cambiar el tipo de memoria de GDDR3 a GDDR5 podían incrementar algo el ancho de banda usando un bus menos ancho, recortanto por tanto costes a la vez que aumentaban el rendimiento).
-
ELP3 ya me imagino que habrás jugado bastante con las 4 titanes como comentabas, cual es la media y mínimos que logras en los juegos a 1600p
Viendo que es la primera gráfica certificada 4096x2160 has probado por downsampling llevarla a esta resolución ;D ?
Salu2.-
-
ELP3 ya me imagino que habrás jugado bastante con las 4 titanes como comentabas, cual es la media y mínimos que logras en los juegos a 1600p
Viendo que es la primera gráfica certificada 4096x2160 has probado por downsampling llevarla a esta resolución ;D ?
Salu2.-
60 fps constantes con v-sync.Con todo lo que he jugado al máximo del máximo..metro very high,DOF,Physx4XMSAA,Sleeping dogs extremo,Max payne todo en muy alto y 8XMSAA e incluso Tomb raider,aunque este no vá fino del todo pues se producen unos parones como de carga algunas veces un tanto molesto.
Downsampling no lo he probado…tampoco sé si mi monitor lo soporta..
Salu2.
-
60 fps constantes con v-sync.Con todo lo que he jugado al máximo del máximo..metro very high,DOF,Physx4XMSAA,Sleeping dogs extremo,Max payne todo en muy alto y 8XMSAA e incluso Tomb raider,aunque este no vá fino del todo pues se producen unos parones como de carga algunas veces un tanto molesto.
Downsampling no lo he probado…tampoco sé si mi monitor lo soporta..
Salu2.
Es cuestión de probar pero me parece que no viene por el lado del monitor sino de la grafica, acabo de probarlo en mi tv 1080p y logre 2560x1600 y tambien lo probe en un monitor 19 samsung 940s resolución 1280x1024) y tambien da 2560x1600 probe el crysis 3 y el bench del resident evil 6 y funciona aunque la resolucion adecuada para mi tv de 2560x1440.
O combinación de ambas (monitor y GPU) por lo que lei el Dell U2711 hace los 2160p.-
te dejo el tutorial pero me da que podria funcionar a 2160p
Downsampling, a simple method for making your pc-games look better. - NeoGAF
Salu2.
-
Es cuestión de probar pero me parece que no viene por el lado del monitor sino de la grafica, acabo de probarlo en mi tv 1080p y logre 2560x1600 y tambien lo probe en un monitor 19 samsung 940s resolución 1280x1024) y tambien da 2560x1600 probe el crysis 3 y el bench del resident evil 6 y funciona aunque la resolucion adecuada para mi tv de 2560x1440.
O combinación de ambas (monitor y GPU) por lo que lei el Dell U2711 hace los 2160p.-
te dejo el tutorial pero me da que podria funcionar a 2160p
Downsampling, a simple method for making your pc-games look better. - NeoGAF
Salu2.
El mio es un 3011.Y todos los anteriores downsampling que intenté,fueron fallidos..
-
El mio es un 3011.Y todos los anteriores downsampling que intenté,fueron fallidos..
Tienes que probarlos con los ultimos drivers y funciona
acabo de probar en otra tv y logre 3840x2160 30 Hz (dvi-hdmi) por vga se queda en 1600p.
Se ve clamente en el Bench del Resident evil 6 como caen los fps.
a 1080p - escena 1 36 fps - escena 2 30 fps
a 1600p - escena 1 24 fps - escena 2 17 fps
a 2160p - escena 1 14 fps - escena 2 9 fpsSalu2.-
-
Que bueno lo del downsampling, me funciona bien en mi 24" a 2560x1440! En los juegos que no puedes escalar la UI es una putada porque se be minúsculo, pero la calidad mejora considerablemente. He probado con mayores pero se queda en negro.
-
Elp3 prueba un downsampling de 2800x1700. Ese lo podrás hacer sin problemas, yo tengo el mismo monitor que tú, y no puedo subirlo mas
-
Yo tengo un HP 2710m de 27" y me funciona a 2560x1440
-
ELP3 te dejo un link para lograr los 3840*2160 incluso en formato 16:10
Downsampling – A full guide to achieve 3840x2160 resolution – NVIDIA only - ScreenArchery Wiki
Este fin de semana realizare unos benchs en 1080p, 1440p y 2160p y subire los resultados.-
Salu2.-
-
Buenas compañeros.
Antes de nada, felicitarte ELP3 por tus esfuerzos de compartir tus sensaciones y experiencias con todos nosotros. Menuda pasada de TITAN son bestias andantes….....
Así da gusto jugar en surround a los temas, como Crysis y tomb raider.... :wall:
Me alegro mucho, que otra vez hayas batido otro record en 3DMARK, ya que el año pasado lo conseguistes con nuestras queridisimas 4 way 680.Aunque no poste mucho por falta de tiempo, intento seguiros leyendo todos vuestros post...........
Un abrazo.
-
Elp3 prueba un downsampling de 2800x1700. Ese lo podrás hacer sin problemas, yo tengo el mismo monitor que tú, y no puedo subirlo mas
Más que un problema del monitor será un problema de los estándares a cumplir para cada resolución en cuanto a ancho de banda disponible para la salida de vídeo, aunque éste sea totalmente ficticia. Me explico:
Se supone que si activas el escalado de pantalla por GPU, y no por la pantalla en sí, no existe realmente un cambio de resolución respecto a la nativa del mismo, y por tanto no existe ninguna exigencia a mayores contra la pantalla.
Lo que sí puede ser distinto es la sincronización y que las resoluciones internamente el sistema evalúa si se pueden o no usar por ancho de banda (MHz), según cómo se conecte dicha pantalla. Resoluciones como la de 4K hacen que un Dual link DVI se quede corto, y aunque no sea una limitación real de la pantalla ni la comunicación con ésta, ya que sigue funcionando a la resolución nativa (el downsampling ocurre en la gráfica, no en la pantalla, y todo lo que se envía a ésta es en resolución nativa).
Pero vamos, que el sistema sigue a lo suyo aunque el escalado se haga en la gpu, y puede "no ser capaz" de usar ciertas resoluciones por temas de cableado, aunque técnicamente no está usando esa resolución superior (lo que sí puede cambiar es la forma de cómo se envía a pantalla la información, lo cual puede provocar algunos de los problemas al usar cierto tipo de pantallas y cableado). Supongo que usar un displayport o algo del estilo puede permitir alcanzar mejor los 4K.
-
Más que un problema del monitor será un problema de los estándares a cumplir para cada resolución en cuanto a ancho de banda disponible para la salida de vídeo, aunque éste sea totalmente ficticia. Me explico:
Se supone que si activas el escalado de pantalla por GPU, y no por la pantalla en sí, no existe realmente un cambio de resolución respecto a la nativa del mismo, y por tanto no existe ninguna exigencia a mayores contra la pantalla.
Lo que sí puede ser distinto es la sincronización y que las resoluciones internamente el sistema evalúa si se pueden o no usar por ancho de banda (MHz), según cómo se conecte dicha pantalla. Resoluciones como la de 4K hacen que un Dual link DVI se quede corto, y aunque no sea una limitación real de la pantalla ni la comunicación con ésta, ya que sigue funcionando a la resolución nativa (el downsampling ocurre en la gráfica, no en la pantalla, y todo lo que se envía a ésta es en resolución nativa).
Pero vamos, que el sistema sigue a lo suyo aunque el escalado se haga en la gpu, y puede "no ser capaz" de usar ciertas resoluciones por temas de cableado, aunque técnicamente no está usando esa resolución superior (lo que sí puede cambiar es la forma de cómo se envía a pantalla la información, lo cual puede provocar algunos de los problemas al usar cierto tipo de pantallas y cableado). Supongo que usar un displayport o algo del estilo puede permitir alcanzar mejor los 4K.
Efectivamente creo que por ahí ván los tiros.el DVI no dá para mucho mas…de todas formas,con 2560X1600p y pudiendo añadir la cantidad de MSAA.SSAA etc..que admiten los juegos,El Max Payne 3,con 8xMSAA a 1600p es verdaderamente espectacular como se vé..el donwsampling no es precisamente una cosa que me quite el sueño..;)
salu2.
-
Efectivamente creo que por ahí ván los tiros.el DVI no dá para mucho mas…de todas formas,con 2560X1600p y pudiendo añadir la cantidad de MSAA.SSAA etc..que admiten los juegos,El Max Payne 3,con 8xMSAA a 1600p es verdaderamente espectacular como se vé..el donwsampling no es precisamente una cosa que me quite el sueño..;)
salu2.
Me imagino que si, debe haber bastante diferencia entre una resolución nativa a 1600p en un monitor IPS contra un downsampling en un monitor o tv de 1080p supongo por el tamaño de pixels, consegui los 2160p en 2 tvs por dvi-hdmi pero nunca logre una buena calidad como por vga y los juegos de ultima generación estan en 10 fps de rendimiento con la GTX 580 a esa resolución.
Igualmente es una pasada esto del downsampling ya no quiero quitar la resolución de 1440p.
Me hubiera gustado poder tener una impresión de tus Titanes a esa resolución aunque por lo que lei el que probo en tv 4k no pudo hacer funcionar el SLi de Titan.-
Salu2.
-
La siguiente BIOS parece solucionar los problemas de throttling: Nvidia GeForce GTX TITAN Owners' club
Y para los que quieran trastear con la bios han actualizado la utilidad Kepler BIOS Tweaker y ahora soporta las bios de la Titan: http://www.technic3d.com/download/overclocking-und-monitoring-tools/532-kepler-bios-tweaker-v1.25.htm
-
Aunque lo solucione, no veo claro el tener que actualizar la bios por algo que es problema de drivers. En foros ya se ha confirmado que pasa también con muchas 680, pero solo con los últimos controladores WHQL y Beta, con los anteriores no pasaba. El problema es que los anteriores no sirven para las Titan, pero yo voy a esperar si lo solucionan vía drivers antes de tocar la bios.
Saludos
-
Aunque lo solucione, no veo claro el tener que actualizar la bios por algo que es problema de drivers. En foros ya se ha confirmado que pasa también con muchas 680, pero solo con los últimos controladores WHQL y Beta, con los anteriores no pasaba. El problema es que los anteriores no sirven para las Titan, pero yo voy a esperar si lo solucionan vía drivers antes de tocar la bios.
Saludos
Según van maudrando los driver, incluso en nvidia y kepler a pesar de que algunos dicen que no, se va aumentando el rendimiento en los mismos juegos o usando de forma más plena la gpu.
Como se exprime más el rendimiento se elevan los consumos en una gráfica dada, y en caso de juegos muy exigentes pueden hacer bailar las frecuencias por el límite de TDP. De la misma forma que esa misma mayor optimización de los drivers hace que una frecuencia con OC "estable" con una versión dejen de serlo con una más moderna. Pero no porque sea más inestable el driver, sino porque al usar más plenamente la gpu ésta va mejor contra su límite, poniendo en evidencia OCs muy al límite. Y también por supuesto haciendo baile de frecuencias por el TDP.
Es así de sencillo, y sí, las BIOS por supuesto que pintan y mucho, ya que la información del planificador de frecuencias y voltajes básicamente la dicta la BIOS, y con esos datos administra los drivers. Por supuesto una BIOS puede hacer que "baile" (o no) frecuencias. Empezando porque hasta el TDP de serie viene definido ahí, el "power target", y en una BIOS el 100% aplicado no tiene porqué ser exactamente el miso 100% de una revisión posterior.