• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. wwwendigo
    3. Mensajes
    W
    • Perfil
    • Siguiendo 0
    • Seguidores 0
    • Temas 0
    • Mensajes 262
    • Mejor valorados 0
    • Controversial 0
    • Grupos 0

    Publicados por wwwendigo

    • RE: CPU vs. GPU

      @Sylver:

      Yo pienso que tiene más que ver el mal desarrollo de un juego que la necesidad general de CPU, porque por ejemplo con GTA4 ocurría algo similar a lo del Tomb Raider, costaba bastante moverlo de manera decente al máximo tanto en un i7 como en mi i5, con una 660Ti y un crossfire de 5850 en cada caso, aparte de la necesidad imperiosa de tener unos drivers decentes y un par de parches instalados. Algunos juegos recientes de bastante exigencia gráfica no pegan bajones de fps pese a usar la CPU al 100%, he podido comprobarlo, aunque aún tengo que probar el Tomb Raider y el Crysis 3, pero es por este motivo, el haberlo comprobado en otros juegos, que me inclino por el factor desarrollo del juego como causa de estos problemas. Porque seamos realistas, aunque los juegos más nuevos exigen mucho tanto de CPU como de GPU, los i5 más recientes no son moco de pavo, y más si llevan OC, por lo que señalarlos como "micros escasos de fuerza" es una tontería. También es interesante tener en cuenta otros detalles como las memorias, o mayormente el disco duro… Porque eso influye de manera directa, pues no es igual hacer las pruebas en un disco mecánico con alta velocidad lectura/escritura que hacerlas en un SSD de los más rápidos del mercado, por ejemplificar.

      En resumen, hay muchos factores, pero los juegos abren este debate, y como tal creo que son los principales señalados.

      Saludos

      Si ya digo que algo de mala optimización hay por el camino, pero por ejemplo en el caso de Tomb Raider tengo claro que no se está usando eficientemente el tema del multihilo para el subsistema gráfico, que está infrautilizado.

      Pero esta situación es muy normal, ya que no es tan trivial la programación de una aplicación y dividir "hasta el infinito" cada subsistema del juego en hilos y a su vez éste en otros hilos. Lo que muchas veces se hacía era coger y poner en un hilo exclusivamente, por ejemplo, el motor de físicas, en otro el motor gráfico en sí, en otro la IA y en otro el subsistema de sonido, otro para el de IOs, etc.

      El problema es que cada subsistema no tiene porqué necesitar un rendimiento similar, y hay algunos concretos como el gráfico que pesa mucho para la cpu, y lo óptimo sería dividir este subsistema para que trabaje a lo largo de varios hilos y cores, en vez de funcionar con un sólo hilo.

      Pero ya digo que este tipo de temas, fácil-fácil no es. Además de ser en muchos casos un juego multiplataforma, como es el caso. Y con Tomb Raider funcionando en la PS3, XBOX360 y PC, está claro que el mínimo común denominador en temas de cores e hilos es la XBOX360, donde el subsistema gráfico iría en un único hilo "por lógica" (y si puede ser usando un core en exclusiva, sin uso de SMT). Y en el resto de cores los demás subsistemas.

      Después las versiones para PS3 o PC no serían más que remodelaciones de esta base para adaptarlos, haciendo cambios no siempre afortunados. Si este juego usara eficientemente los cores en multihilo no tendría problema alguno en hacer funcionar a 60 fps con todo al máximo en un i5 de 3,5 GHz, pero seguro, vamos.

      Pero no es el caso, y en parte entiendo porqué es así. O mejor dicho, "les comprendo" (a los desarrolladores).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre cuello de botella…

      @javi2211:

      Coño pues si está la gigabyte esa 30€ más barata que en pc componentes y la vaporx 20 € menos tambien los precios son con iva y todo??…lo único que no veo es lo de la promoción del los 2 juegos...será que no la tienen en esta tienda??y dices que es totalmente fiable y 0 problemas comprar en amazon?porque yo que sé por ejemplo ( por poner un caso extremo ) igual son 30 € más barata pero te quieren colar una más barata o usada o yo que sé xD (comprende los típicos miedos pre-compra) yo nunca he comprado allí así que como verás estoy de ignorante total...

      Y respecto a lo del ensamblador yo también creo que mejor es gigabyte pero también parece que hay gente contenta con las sapphire...si ya no es por 10 o 20€ sino gastarlos en algo bueno bueno ;D

      Gracias por la ayudita!

      No hay problema, la gente habla muy bien de Amazon, de hecho mis compras fueron con cero problemas, muy rápidas en envío y con éste de calidad (o sea, sin peligrar las piezas en absoluto) y por cuatro duros de gastos de envío frente al precio típico de tiendas online españolas como la mencionada PCcomponentes.

      Lo de los juegos ahí me pillas en un renuncio, no tengo claro cómo va el tema, aunque tenía entendido que los podías solicitar directamente a AMD, pero ahí mejor que responda alguien que haya usado el Never Settle a ver qué dice, si puede ser fuera de esas tiendas como PCcomponentes que ponen oficialmente su soporte.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: CPU vs. GPU

      @Bm4n:

      Bueno pues siguiendo el tema que se abrió aqui: Duda sobre cuello de botella… - HardLimit.

      Que si que me leo lo que pones leche, si aun va a resultar que estoy de acuerdo contigo :risitas:

      Bueno tío pues eso está genial así podemos ver de que hablas, de 36 (3GHz) a 48FPS (4,5GHz) es un +35%, es muy considerable. Pero por lo que veo en las screens ni la GPU ni el CPU están trabajando a tope no? Porque normalmente en el caso de un cuello de botella, que me corrijan, estaría la CPU a tope de carga y la gráfica no. Que gráfica usas, por cierto?

      Yo como decía creo que Tomb Raider es un desastre de siempre para PC probablemente tengan que parchearlo de alguna forma, no me parece un problema de que le falte rendimiento al equipo. Bueno es más puedo afirmarlo, porque lo juego en la PS3 de lujo así que es evidente que está muy mal portado.

      Sí, pero la gpu está trabajando, da igual a la resolución que lo pongas (bueno, sin pasar de 1080p o 1200p vamos), a algo así como el 50% en gran parte de estas fases, con Vsync desactivado y todo lo demás. Lo cual es un indicativo de que hay una cpudependencia en el juego.

      En realidad en la carga de la cpu, aunque no se ve ningún core al 100%, sí se ve que hay uno (a veces parecen ser dos, pero es un "artefacto" de la forma en que se mide la carga) de los cores con una carga de un 80% o más. Atribuyo a un rebalanceo de los hilos del subsistema gráfico esto, porque ni siquiera coincide el mismo core como el que tiene esta carga entre capturas.

      Pero vamos, los demás cores están que se aburren mientras que uno de ellos parece estar trabajando, y la gráfica mientras tanto también está a medio gas. Eso señala a lo dicho de un problema de cpudependencia, probando con las opciones gráficas del juego he visto que este problema de rendimiento está atado a una opción muy concreta, que es el LOD o "nivel de detalle" de las opciones gráficas del juego.

      Esta opción lo que hace es definir cómo cambia la geometría y texturas de un objeto según la distancia (o si incluso desaparece), lo que hace que en mapeados como éste de la aldea de la montaña y shandytown sean pesados para la cpu, porque son muy abiertos y hay vistas a terrenos, edificios, y objetos a gran distancia.

      Con el LOD en el máximo se obliga a la cpu a procesar gran cantidad de objetos con un nivel de complejidad muy alto, y esto satura a la cpu porque además es un trabajo que parece hacer un único hilo del juego.

      En consola esto no pasa, seguramente porque el nivel máximo de LOD que usa la PS3, además de no ser configurable casi seguro, equivaldrá al "bajo" o "normal" de PC, donde se ha añadido como "extra" unos niveles de LOD muy altos para mejorar la calidad gráfica (más bien la fidelidad gráfica a distancia), a costa de la cpu.

      Es más un tema de mala optimización (por usar un core sólo para el tema, por definir niveles de LOD casi intragables para las cpus actuales, por lo menos la mía) de la versión de PC del juego con sus extras.

      Pero vamos, algo parecido es lo que pasa con Borderlands (otro core es el que se lleva toda la carga de trabajo con el tema de sombras dinámicas), posiblemente como opción gráfica exclusiva de PC que en ciertos mapas demasiado complejos sale caro (para un equipo normalito), o lo que pasa con otros juegos mejor optimizados pero exigentes con el tema.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre cuello de botella…

      @javi2211:

      Jo me he ido un momento y madre mía la que se ha armado aquí…siento si he provocado yo esto que para nada era mi intención yo solo quiero aprender de sus consejos que para algo son gente que tiene millones de veces más conocimientos informáticos que yo...

      Mis últimas preguntas son para la gráfica en cuestión...y de aquí también digo las conclusiones que he sacado...y por favor me corregís si estoy equivocado,,,

      Como primera conclusión creo que ha quedado más o menos claro que con la hd 7950 y el monitor que tengo de momento (720p) no voy a tener muchos problemas para jugar a los juegos en ultra ( que es algo que me preocupa mucho puesto que quiero que se note desde el primer momento que he gastado 280 € en una gráfica aunque todavía no la vaya a sacar todo el jugo).

      Lo segundo que saco es que mi cpu aunque no es de las mejores tampoco es que sea de las peores ( no sé si me entienden) y que en principio no me hace cuello de botella a ninguna resolución...ya que los juegos que me vayan a ir mal me irían mal también en 1080p...

      Y la tercera son dos preguntas sobre la gráfica propiamente dicha...cual me compro mejor? la vapor-x que está por 279€ en pccomponentes o la 7950 que está por 10 € menos ( he puesto los enlaces en algún comentario anterior)
      Y como ensamblador me recomiendan las sapphire?? porque he leido que en las 7870 dieron algún problemilla pero creo que eso no afecta a esta serie de 7950...ustedes me dirán...

      Me corregís si estoy equivocado en alguna cosa y daros las gracias a todos por haberme ayudado...es lo menos que puedo hacer...salu2!

      Mejor la 7950 porque la 7870 con la trayectoria que ha tenido, y precios fuera de Sapphire, se acerca demasiado a la más fiable 7950. Posiblemente la que dices está bien, pero vamos, que igual te pillas la más barata que es similar y está bien refrigerada, la mayor diferencia la marca el OC de fábrica, y de momento como que te dará igual para jugar a 720p (y cuando necesites chicha, si tal ya le harás OC tú mismo).

      Yo preferiría otro ensamblador distinto a Sapphire, me gusta bastante la Gigabyte con sistema de disipación Windforce 3X, en Amazon tienes tanto la Vapor-X que has mencionado al principio como la Gigabyte a mejores precios que en PCComponentes:

      http://www.amazon.es/Gigabyte-Pci-E-Ati-Hd7950-Tarjeta/dp/B0071LP5ME/ref=sr_1_2?s=electronics&ie=UTF8&qid=1363650942&sr=1-2

      http://www.amazon.es/Sapphire-11196-09-40G-Tarjeta-de-Video/dp/B0091MFBZC/ref=sr_1_1?s=electronics&ie=UTF8&qid=1363650942&sr=1-1

      Vamos, que las puedes encontrar un poco más baratas y con otras marcas como Gigabyte a buen precio. Y con la garantía de una tienda que hasta ahora no ha recibido quejas por su trato con el cliente (lo digo por si no te fías de Amazon).

      Sobre lo que dices de la cpu, sí es suficiente, pero ya te digo, porque me he encontrado con la situación unas cuantas veces, que en algunos casos la cpu te limitará el rendimiento a veces por debajo de los deseables 60 fps, incluso aunque juegues a 720p (pero con toda la calidad al máximo, evidentemente).

      Pero si tal dejas esto para un futuro, pero si algo notas que no va del todo fluido, a 720p o a 1080p, no te extrañe que pueda ser la cpu. Ojo al dato.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre cuello de botella…

      @amd125:

      Sin comentario :facepalm:

      Aquí sólo se trata de aconsejar lo mejor posible a javi2211, nada más. Que parece que el chaval tiene una mierda de ordenador, cuando a muchos nos gustaría tener su hardware. El chaval monte una 7870 o una 7950 va a tener equipo para rato, y muchos de los juegos que no le vayan finos, no iran finos en configuraciones superiores.

      Ya sea 720P o a 1080P javi2211 tranquilo porque podrás jugar muy bien a la mayoría de juegos que de eso se trata.

      Digo yo que si con mi PC, el de la firma, juego a la mayoría de juegos a 1280*1024 bastante bien, y digo a la mayoría no empecéis a decirme prueba el juego tal y Pascual que tengo pocos juegos… javi2211 con su equipo y la nueva gráfica, se pasará por la piedra a mi ordenador y por ello jugará muy bien a la mayoría de juegos.

      wwwendigo un poco de cordura por Dios.

      La "cordura" empieza con molestarse en leer completamente las respuestas cuando se usan datos ajenos y no ignorar gráficas de rendimiento anexas a la respuesta anterior, que he hablado muy claramente sobre qué falla y qué no, pero nada, que según parece no vale lo dicho y me salen por la vía de los tests basados en bench de techspot con el mismo juego.

      Porque si javi1221 se compra una gráfica como éstas dos opciones para jugar en principio a 720p y puede que después a 1080p, está claro que es para jugar con todo a tope, y en este caso se puede dar de lo que estoy hablando. Yo no digo que esta cpu "no valga", digo que podrá limitar el rendimiento en más de una situación, de juego real además.

      Bm4n, a ESTO es lo que pasa realmente con Tomb Raider en algunas fases:

      Ésta con el i5 funcionando a 2 GHz, calidad máxima pero a 720p. 26,6 fps.

      Ésta con el i5 a 3 GHz y lo demás igual. 36,9 fps.

      Ésta con el i5 a 4 GHz, 44,3 fps.

      Y finalmente a 4,5 GHz y con 48,5 fps.

      Ésta es la configuración, máxima y a 720p, que por culpa de usar interpolación via GPU en vez del monitor, con resoluciones distintas de la nativa, quedan las capturas a 1080p igualmente, se siente por la dificultad para leer los datos, pero es lo que hay.

      Pero ahí están los datos, hasta con 4,5 GHz el i5 sigue sin ser capaz de acercarse a 60 fps, no es la peor escena posible además en este juego, pero sí representativa. Son las dos fases más largas del juego, por tanto no es algo tan "puntual", aunque si tienes unos 45 fps puede ser pasable. Pero está claro que con un i5 que no vaya demasiado rápido no se podrán mantener los 40 fps siquiera, y en este juego se nota.

      Yo no estoy diciendo que en la mayoría de casos no sea suficiente este i5, pero que va a limitar tanto a la 7870 como a la 7950 en juegos exigentes de cpu, como el ya mencionado por otros crysis 3, o en el mencionado por mí Tomb Raider, seguro que sí.

      Que yo estoy hablando de algo muy concreto, y es de la idoneidad de esa cpu, que no es del todo buena para explotar la gráfica que se compre porque guste o no, muchos juegos tiran bastante de cpu, ya sea porque están mal programados (tomb raider usa un único hilo para gestionar el subsistema gráfico) ya sea porque son exigentes (Crysis 3 carga a tope las cpus).

      Habrá momentos en que sea 7870 o 7950, que para jugar de momento a 720p da igual, esa cpu se convertirá en una rémora. Porque situaciones muy cargadas de cpu siempre se ven en ciertos géneros (mismamente estoy con otro juego que pide cpu rápida como Starcraft II y su expansión, maneja mapas complejos (unidades) y más vale que tengas una buena cpu con músculo).

      Y sí, cambiaría primero la gráfica, pero tendría un ojo puesto en cambiar la cpu en la siguiente actualización si quiero aprovechar al 100% la gráfica, que la gente tiende a pensar que la cpu poco importa pero tiene su peso.

      Y moraleja para javi1221:

      Compra ahora la gráfica que te puedas permitir, sobre todo si cambias en breve a 1080p, pero si quieres disfrutar al 100% de los juegos, no desestimes del todo el cambiar la cpu en un futuro posterior a la actualización de la gráfica, ya que el rendimiento que ofrece dicho i5 es muy similar a lo que ves en mis capturas por el resultado a 3 GHz (algunos fps más) y como bien puedes ver en este juego la diferencia con versiones más rápidas es notable.

      Y no es el único, no es lo más habitual, pero esta situación te la vas a encontrar más de lo que mucha gente se piensa. Si ves que con la 7870/7950 que te pillas el equipo renquea, entonces plantéate si será la cpu (revisa carga de trabajo de la gpu).

      No para que actualices ahora, sino para que no pierdas de vista que esta cpu, aún siendo buena, puede ser insuficiente en algunos casos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre cuello de botella…

      @Bm4n:

      Tío que en la gráfica esa que pusiste en tu blog se muestra esa misma resolución, 1280x720, son las barras que van primero!… En fin que sí no quieres caer de la burra y reconocer que no es necesario tener ningún CPU overclockeado para jugar, tu mismo. Como @&€@&@ va a jugar al máximo con una 440, que cambie la maldita gráfica y luego si quiere que ponga un CPU a 5ghz con nitrógeno líquido a ver si juega así al máximo.

      Más ejemplos, te puedo poner docenas:

      !
      Tomb raider, y como digas algo de 720 te voto negativo ¬¬ que sí da 100fps en 1080 dará tantas o mas en 720.
      Más juegos como Bordelands 2 X-bit labs y a 1280x800.

      Hasta con un i3 podria jugar!, te digo lo mismo que al amigo saca algún dato que demuestre que se necesita un i5 a 4 o 5ghz en vez de uno a 3 como tiene el, no que haya diferencias que las hay, pero algo importante o necesario. Luego hablamos. No busca diferencias puntuales en FPS para jugar, lo que pide el tío simplemente es saber si le va a funcionar bien o no cambiar de gráfica.

      Cago en la hostia ya.

      Pero MIRA la respuesta que te he dado, en ella de esa misma review te pongo gráficos y datos sobre juegos donde el rendimiento con un i5 es apenas "suficiente" o claramente más bajo que 60 fps, que para un juego tan antiguo como Borderlands y sus sombras dinámicas en ciertas zonas NECESITABA tener OC en la cpu sí o sí, sino se me quedaba el juego funcionando a 45 fps.

      Y lo mismo con Tomb Raider, que los tests pueden decir misa, pero digo y repito que en ciertos mapas hace falta cpu, que ni siquiera mi i5 con OC es capaz de manejar con el máximo detalle esas escenas a 60 fps.

      Que no me vengas con pruebas de reviews donde un walkthrough de un minuto o un bench dicen que "es lo msimo", que te estoy diciendo que hay puntos o ciertos mapas en juegos, u opciones, que lastran el rendimiento y hace falta cpu sí o sí. Y ni siquiera hablo de videojuegos de estrategia o similares.

      Que te estoy diciendo que en Tomb NO tiene nada que ver el rendimiento JUGANDO con el bench, LEE BIEN antes de contestar otra vez lo mismo, por dios. A ver si pillas que te estoy diciendo que NO llega con un i5 ni con OC (por lo menos no un Sandy normalito, a 4,2-4,4 GHz) para jugar a este juego completo con 60 fps totalmente estables, pero ni de lejos.

      PD: Espero que haya quedado claro y no me vengas otra vez con benchs de juegos como "prueba" de nada cuando te estoy hablando de rendimiento in-game y en TODO el juego, no sólo un paseíto por la fase de inicio. En Tomb, en Borderlands, etc.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre cuello de botella…

      @Bm4n:

      @__ELP3__ yo lo veo muy simple, 7950 si va a actualizar en breve y 7870 si no.

      @__wwwendigo__ me voy a poner pesado, perdón de antemano 😉

      Estáis comparando un Q6600 con un 2500K, hay dos generaciones de diferencia por medio, como no va a haber diferencia?! Aquí habla de que el ya tiene un Sandy que rinde casi como un 2500 sin OC. Pondré algo con colorines a ver:

      El CPU que el tiene es casi como el ROJO, creéis que necesita cambiarlo por el VERDE? Te suena de algo el gráfico? :ugly:

      Claro que me suena el gráfico, no tengo tan mala memoria de mis propios actos. :troll:

      El tema es que estamos hablando de una 7950, sensiblemente más rápida que la GTX 560 Ti usada en esa review, y para más inri se trata de usar esta gráfica a 720p, lo cual desplaza mucho la limitación hacia la cpu, ya que cuanto más reducida sea la resolución, y entiendo que aún con este limitante con la mayor calidad posible, más se sobrecarga a la cpu (los frames generados a esa resolución con calidad muy alta son igual de pesados que a 1600p para ésta, y como la gráfica "acaba rápido" digamos que le mete más caña pidiendo más frames).

      Pero ya sabemos que 60 fps son más que suficientes, de todas formas con esta gráfica, esa resolución, ya aviso que en realidad la cpu puede limitar el rendimiento de la gráfica aunque sea para generar 100 fps en vez de los 75 fps que igual esa cpu puede dar.

      Pero el problema no está sólo ahí, sino aquí:

      @yomismo:

      En el primer caso con Borderlands estas tasas de fps se obtienen en la fase de "Tartarus Station", nada más comenzar el nivel y mirar a la ciudad a lo lejos esas son las tasas de fps que nos da el juego, y os puedo asegurar que son insuficientes. En todos los casos está activado Vsync, con lo que implica en casos como el de Dead Rising 2.

      El segundo caso es el de Dead Rising 2 al atravesar el Mall del comienzo del juego, atestado de zombies (cientos de hecho), una situación que no tiene nada de excepcional en el juego, sino que es muy habitual. Estos 35 fps de DR2 son mucho más jugables que lo visto en Borderlands, pero no se puede decir bajo ningún concepto que sea una forma de jugar realmente fluida. La diferencia con las cifras de rendimiento del 2500K por defecto son abismales en estos casos, superando con mucho el 50% y acercándose al 100%.

      … :ugly:

      Como ves en esa misma review estoy señalando que a pesar de lo visto hay situaciones donde la cpu hace de limitante incluso visible tras cambiar al i5 2500K y aplicarle OC, obteniendo beneficios netos.

      Es lo que también he visto en situaciones como Tomb Raider en dos de sus mapas más complejos con el LOD al máximo, que el rendimiento aún usando 1080p y calidad máxima se ve lastrado por la cpu (el i5 pero con OC), así que este tipo de problemas pueden ocurrir igualmente sino se acentúan al usar 720p, porque se trata de jugar a la calidad máxima, y como ya he señalado ya entonces y hoy en día, hay no pocas situaciones donde al jugar con máxima calidad la cpu pinta y no poco.

      PD: Y yo no pillaría la 7870 de cualquier manera por varias razones, esos problemas de fiabilidad no sólo han pasado en Sapphire, aunque se centren en esta marca, y el precio y rendimiento no acaban de convencer frente a la 7950. La limitación por la cpu sería similar, y ya puestos a poner pasta en la mesa, ponerlo para ir sobrado, aunque sea para arrastrar la gráfica por la cpu o sólo jugar a 720p por ahora (más vale cambiar lo antes posible el monitor, porque es un pecado usar semejante resolución en PC).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre cuello de botella…

      @fjavi:

      Yo es que no le dije que cambie el micro,por que es un buen micro,pero no se puede comparar una 4870 con una 7950,por ejemplo un Q6600 a 3600 ya pierde algo con una 470 si se ocea y eso hablando de 1680x1050 o 1920x1080,si nos vamos a 720p es que la demanda de CPU sube bastante,esas resoluciones se usan para ver que CPU flaquea mas por que las graficas no trabajan a tope,si una 470 ya no va tan estable y ademas bajas resolucion y metes una grafica mas potente ira bastante peor.

      Se que un i3 de esos de serie y un 2500k no hay mucha diferencia,pero la diferencia es que mientras el 2500K se puede subir el 2320 sube muy poco y a tan baja resolucion todo lo que suba le vendra bien,o quiza mejor comprarse una 7950 y un monitor con mas resolucion.

      tambien influira el juego pero ya ni la serie 7900 ni las 660Ti,670 o 680 estan pensadas para menor resolucion de 1080p,por lo menos a 1680x1050 todavia ira bien pero a 720p es muy poca resolucion.

      Si decimos que dentro de un par de meses mete otro monitor pues si pero si tarda muchos meses quiza no pueda jugar bien y no por falta de fps sino de que la grafica sera inestable,aunque si cambia desde una 440 pues quiza le parezca un gran cambio.

      Confirmo totalmente que la cpu sí que se nota en no pocos juegos con gráficas de ese nivel. Con una GTX 560 Ti que rinde parecido a una GTX 470, en ciertos juegos el rendimiento era más bajo con un Q6600 incluso a 3,6 GHz que con un i5 2500k de serie, ya no digo con OC.

      Hay fases o momentos de muchos juegos que son bastante cpudependientes, mismamente el tombraider actual con LOD al máximo, en la aldea en la montaña y en "shandy Town" tiran de cpu sobre todo, dejando muerta de risa a una gráfica potente (hablo de un i5 2500K con OC).

      O sea que desde luego a 720p con una 7950 no se va a sacar provecho a todo su potencial, aunque sí debería de llegar para mantener los 60 fps excepto en esas situaciones cpudependientes mencionadas.

      Pero vamos, que lo que hay que buscar es un equilibrio entre ambos componentes, cpu y gpu.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Patagonico:

      Es que no le busco explicaciones a que corresponde solo veo como rinde, la GTX 285 la cambie porque a menos de 30 fps ya se me hacia injugable y hasta ahora ningún juego que había probado con la GTX 580 casi nunca había bajado a los 30 fps.

      Simplemente me sorprende a mi mismo no tener tirones ni parpadeos como antiguamente, también ten cuenta cuenta que no soy de los usuarios exigentes ;D (mi TV tiene un imput Lag de 120 ms) que miran hasta el último detalle solo que me sorprende esta gráfica cuanto me esta durando.-

      Salu2.

      Es que esa generación gráfica está muy por delante de lo que se pide por el soft, hace falta usar algo muy exigentemente para requerir de verdad el rendimiento de GCN/Kepler y que no llegue una Fermi o incluso en menor grado una Evergreen (que parece que queda muy lejos, pero no tanto).

      En parte es por los ports de consola, y en parte porque realmente no hace falta reventar el rendimiento de una gráfica para mostrar en pantalla grandes momentos, muchos juegos de los que mejor ambientación tienen no son los que más piden.

      Y esto se acentúa si además aún encima no se es demasiado exigente con los fps. Pero bueno, que sepas que es relativamente normal que con los motores de Crytek 30-40 fps puedan parecer más sólidos que los 60 fps de otros engines (no digo menos fps porque eso ya para mi nivel de exigencia no es suficiente, pero también se cumple).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Patagonico:

      Por primera vez realmente entiendo esto de la suavidad de que tanto se habla de la GTX 480/580 al probar el crysis en 1440p jugando a 20 fps y va suave, se ve que empieza a flaquear a partir de los 15fps, pero con la GTX 285 los tirones y parpadeos de pantalla era increíble a 20 fps.

      Bueno la GTX 770/780 pareciera ser que tendrán 3GB y si Titan esta un 50% por encima de la GTX 680 están tendrían que por lo menos estar en un 25-30% por encima de esta ultima, porque tienen que seguir vendiendo cuando se acabe el boom de la Titan.

      Me parece que a la propia nvidia los debe haber agarrados desprevenido sino no se explica la falta de stock, seguramente tendrán que ampliar ese stock de 10000 gráficas, que en varios países ni las veremos.

      Salu2.

      No empecemos con las odiosas hypes que tanto llevan a engaño.

      Sólo faltaría que ahora resulte que 20 fps, por muy bien colocados que estén (por cierto mérito si tal del motor gráfico, ya es conocido que el motor de Crytek es bueno a baja tasas de fps medios), sean "suaves" cuando el mínimo a lo que se nos muestra una película para engañar mínimamente bien al ojo humano es a 24 fps.

      Y te aseguro una cosa, nada supera a la "estabilidad" de fps de una cámara de vídeo, no hay ni latencias, ni los fps no están colocados cuando no tocan, ni el "estado del mundo" que se muestra está desactualizado.

      Así que eso de "20 fps y va suave", como que no. Que te impresionará y todo lo que quieras, pero de suave eso no tiene nada. Y mucho menos "empieza a flaquear" a partir de 15 fps, por favor. ¬¬

      PD: Posiblemente cuando tu GTX 285 daba tan malas tasas de fps era más irregular por una razón que nada tiene que ver con el chip en sí, sino con la VRAM, que en esta gráfica podía llegar a escasear en títulos debido a su larga "durabilidad" y que ha podido enfrentarse a juegos diseñados para usar más VRAM.

      Porque justo las gráficas GT200 han sido las que mejor han ido servidas de ancho de banda (hasta con bus "bonito" y todo de 512/448 bits, que realmente no importa pero como gusta a mucha gente, lo digo), para la potencia que podían entregar, y su relación de TMUs y ROPs es muy buena.

      Otro asunto es que la VRAM en juegos de hace 2 años para adelante se agote con facilidad, y se produzcan rascadas. Pero vamos… las GT200 han sido y son muy suaves si no se les ponen en situaciones injustas (cuando me deshice de la mía ya se estaba poniendo al límite su VRAM, y eso fue hace unos 3 años).

      PD: Lo que sí parece que ha incorporado nvidia en Fermi y Kepler (todas) es hard extra para el mejor funcionamiento del SLI en temporización, pero ni siquiera está claro si esta tendencia no empezaría ya antes, sólo que Fermi y Kepler seguro que incorporan este hard de control y monitorización. Pero esto para rendimiento monogpu no debería pintar nada. Ahí lo que pinta es drivers, drivers y drivers. Y nvidia en ese sentido no abandona a sus gráficas anteriores, como bien se puede ver al comprobar que las GTX 580 no se "apartan" con los últimos drivers de las GTX 600, a pesar de que las últimas han estado mejorando con cada nueva release de drivers. El soporte es muy importante para la vida de una gráfica.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Pepillo:

      Aunque lo solucione, no veo claro el tener que actualizar la bios por algo que es problema de drivers. En foros ya se ha confirmado que pasa también con muchas 680, pero solo con los últimos controladores WHQL y Beta, con los anteriores no pasaba. El problema es que los anteriores no sirven para las Titan, pero yo voy a esperar si lo solucionan vía drivers antes de tocar la bios.

      Saludos

      Según van maudrando los driver, incluso en nvidia y kepler a pesar de que algunos dicen que no, se va aumentando el rendimiento en los mismos juegos o usando de forma más plena la gpu.

      Como se exprime más el rendimiento se elevan los consumos en una gráfica dada, y en caso de juegos muy exigentes pueden hacer bailar las frecuencias por el límite de TDP. De la misma forma que esa misma mayor optimización de los drivers hace que una frecuencia con OC "estable" con una versión dejen de serlo con una más moderna. Pero no porque sea más inestable el driver, sino porque al usar más plenamente la gpu ésta va mejor contra su límite, poniendo en evidencia OCs muy al límite. Y también por supuesto haciendo baile de frecuencias por el TDP.

      Es así de sencillo, y sí, las BIOS por supuesto que pintan y mucho, ya que la información del planificador de frecuencias y voltajes básicamente la dicta la BIOS, y con esos datos administra los drivers. Por supuesto una BIOS puede hacer que "baile" (o no) frecuencias. Empezando porque hasta el TDP de serie viene definido ahí, el "power target", y en una BIOS el 100% aplicado no tiene porqué ser exactamente el miso 100% de una revisión posterior.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: FXAA - Antialiasing rápido y por software

      @kynes:

      Basado en el soft del FXAA, ha salido un nuevo método, que mejora la calidad con rendimiento similar. Basado en un tipo de AA llamado SMAA (SMAA: Enhanced Subpixel Morphological Antialiasing) y desarrollado en la universidad de Zaragoza, este tipo de AA mejora sensiblemente respecto al FXAA en el problema del desenfoque.

      La página del proyecto es la siguiente: mrhaandi's crypto corner: injectSMAA y la instalación es de la misma forma que en el caso del FXAA.

      Bueno, en realidad no está basado en el FXAA el SMAA, como que es anterior a la primera implementación de FXAA (también tiene varias versiones ya el SMAA). De hecho es la primera técnica de postproceso que imita el AA de las vistas de momento, de la misma forma que el MLAA de AMD es anterior al FXAA de nvidia, pero se ha quedado en la inopia y ahora mismo o se usa FXAA o SMAA, con sus distintas versiones más capaces pero también más tragonas.

      Creo que fue en títulos como God of War 3 de la PS3 donde se usó entre las primeras veces el SMAA usando para el postproceso a los PSUs del CELL.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @NucelarGen:

      Elp3 prueba un downsampling de 2800x1700. Ese lo podrás hacer sin problemas, yo tengo el mismo monitor que tú, y no puedo subirlo mas

      Más que un problema del monitor será un problema de los estándares a cumplir para cada resolución en cuanto a ancho de banda disponible para la salida de vídeo, aunque éste sea totalmente ficticia. Me explico:

      Se supone que si activas el escalado de pantalla por GPU, y no por la pantalla en sí, no existe realmente un cambio de resolución respecto a la nativa del mismo, y por tanto no existe ninguna exigencia a mayores contra la pantalla.

      Lo que sí puede ser distinto es la sincronización y que las resoluciones internamente el sistema evalúa si se pueden o no usar por ancho de banda (MHz), según cómo se conecte dicha pantalla. Resoluciones como la de 4K hacen que un Dual link DVI se quede corto, y aunque no sea una limitación real de la pantalla ni la comunicación con ésta, ya que sigue funcionando a la resolución nativa (el downsampling ocurre en la gráfica, no en la pantalla, y todo lo que se envía a ésta es en resolución nativa).

      Pero vamos, que el sistema sigue a lo suyo aunque el escalado se haga en la gpu, y puede "no ser capaz" de usar ciertas resoluciones por temas de cableado, aunque técnicamente no está usando esa resolución superior (lo que sí puede cambiar es la forma de cómo se envía a pantalla la información, lo cual puede provocar algunos de los problemas al usar cierto tipo de pantallas y cableado). Supongo que usar un displayport o algo del estilo puede permitir alcanzar mejor los 4K.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @geltops:

      Pues en ese dato NO he caído nunca y TIENES toda la razón …..........

      Es imposible que con distintos buses de datos el ancho de banda sea el mismo.

      Saludos.

      Imposible no, pero harto improbable, porque o se usan tipos de memoria muy distintos en los chips "iguales" de distinto ancho de bus, o el ancho de banda a memoria será claramente distinto (hay mucha diferencia entre un bus de 512, 384 y 256 bits para compensar sólo con frecuencia). Vamos, que cuando un fabricante saca el chip con un bus, es para exprimirlo bien, no tendría sentido que pudieran usar un bus menor y mismo ancho de banda por la razón que sea, porque eso iría contra sus costes de fabricación (una de las razones principales para la reducción de bus que ocurrió al pasar de las GT200 a los GF1x0 es ésa, al cambiar el tipo de memoria de GDDR3 a GDDR5 podían incrementar algo el ancho de banda usando un bus menos ancho, recortanto por tanto costes a la vez que aumentaban el rendimiento).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @geltops:

      Hola:

      De principio, quiero aclarar que no quiero llevar la contraria a nadie, enfrentamientos ni malos rollos, por favor.

      Principalmente, porque no os llego ni a la suela de los zapatos en conocimientos técnicos ( muchos ya lo sabéis ).

      SÓLO puedo hablar de mi experiencia….......

      He puesto a trabajar unidades IGUALES del mismo proyecto en graficas con 256 bits y otras gráficas de 384 bits, y terminaban antes las gráficas con 384 bits.

      ¿ Diferencial de tiempo abrumadores, exagerados ? Diría que NO pero si era perceptible.

      Manejemos el tiempo con un ejemplo imaginario:

      Gráfica de 256 Bits: 1 minuto y 55 segundos.

      Gráfica de 384 Bits: 1 minuto y 30 segundos.

      Para mí SI hay diferencia .................

      Saludos.

      Nop, de mal rollo ninguno, pero es que hay gente que asegura que sólo por el ancho de bus el rendimiento es mejor, y no es así.

      Tú mismo lo estás explicando con tu experiencia, mismas unidades pero acaban antes las de 384 bits, pero por la simple razón de que tienen más ancho de banda seguramente. Si usaran un tipo de memoria más lenta a las claras que las unidades de 256 bits, igual lo que veías era lo contrario.

      Hay que entender que el ancho de bus AYUDA a obtener más ancho de banda (o más memoria total para cuando se necesite, es más fácil meter más memoria en gráficas con bus ancho), y es así el cómo se plasma a veces en mejor rendimiento. Pero de por sí no define la bondad de una arquitectura, eso lo definen otros parámetros.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @geltops:

      Habrá discusiones y opiniones pero desde que llevo en esto de la Computación y por la cantidad de gráficas ( tanto ATI como nVidia ) que ya han pasado por mis manos, puedo asegurar que el bus de datos INFLUYE muchísimo en el rendimiento de una gráfica.

      Bueno y por ende, es incuestionable el ancho de banda.

      Saludos.

      El ancho del bus per se NO importa, lo repetiré si hace falta mil veces, lo que importa es el total de ancho de banda que se obtenga en lo que le bus puede ayudar mucho, sobre todo en casos que se usen los mismos tipos de memoria con distintos anchos de bus.

      Pero por sí con el mismo ancho de banda y un bus de 128 bits y uno de 512 bits obtendrás el MISMO rendimiento. De hecho es más fácil que vaya peor un bus muy ancho porque dependiendo de su configuración de controlador de memoria puede pasar que desperdicie enormemente el ancho de banda que tiene.

      Eso es lo que pasaba en gráficas pre-Geforce3 donde no había varios controladores de memoria para cada canal de 32-64 bits, y por tanto cuando se accedía a un dato X de 32 bits se cargaba toda una línea de, por ejemplo, 128 bits. Pudiendo darse el hecho de que sobraran los 96 bits siguientes.

      Una de las razones principales por la que la Radeon 8500 era inferior en rendimiento real a sus rivales, a pesar de lo bonito que era el chip en capacidades y demás, es por el tema éste, ya que las nvidia eran mucho más eficientes con un bus similar al usar varios canales de memoria separados.

      Así que si hubiera que decir algo sobre si el bus en sí mejor o peor que sea ancho, por sí sólo en realidad sería peor. Aunque evidentemente si la solución está bien implementada (como en la actualidad) y se usa memoria de similar frecuencia con buses más anchos, está claro que es "mejor" el bus de datos ancho. Pero no es "mejor" por una razón etérea de la "bondad/calidad" del uso de un bus ancho, es por el simple y llano ancho de banda, que aumenta con el bus. Ni más ni menos. Mismo ancho de banda, mismo rendimiento, ya sea el bus de 1 bit que de tres millones de bits (estoy ignorando deliberadamente el problema de las latencias, ya que es otro tema aparte y en las gráfcias realmente poco influyen).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Ximi:

      Si depende del ancho de banda el SSAA pues entonces me da lo mismo que sea la card de 2 GB que 4 GB lo que se necesita es un chip superior en este caso la TITAN.

      Y como no tengo tres monitores , ni juego a resolcuiones de mas de 1080p pues no necesito los 4 GB de VRAM.

      Me va quedando muy claro , gracias por la explicacion.

      Saludetes

      PD : Cuando salgan versiones mejoradas de la TITAN ya me veo comprando al menos una.

      No seas loco… ;D

      Tampoco es así, las GTX 680 usan muy bien su ancho de banda y la verdad es que se mueven bastante bien con SSAA, otro asunto es cuando un juego además de poder usar SSAA se pueda activar otros efectos consume-ancho de banda, como ejemplo el último Tomb que ya hemos comentado aquí:

      El juego se mueve muy fluidamente a 2xSSAA, y de una forma decente aunque no perfecta a 4xSSAA y el resto todo a tope menos dos detalles:

      DoF via Directcompute, implementación del efecto de AMD además. Muy cara tanto en proceso como ancho de banda, aunque en implementaciones equivalentes de nvidia también dependían mucho del ancho de banda (Metro 2033), la implementación de AMD hace que se pierda aún más rendimiento con las nvidia.

      TressFX, el efecto está totalmente bugeado, no es normal ni razonable que de pronto al acercarse a una fuente de luz (y no a todas, sino simplemente "aquí" y "allá" aparentemente sin razón clara alguna) la tasa de fps baje unos 55 fps a poco menos de 20 fps, eso puede pasar con esta implementación, y el coste del efecto es aproximadamente igual al del DoF anterior, no sé si el consumo de ancho de banda es importante o no con este efecto, pero lo que sí sé es que es irregular y afecta negativamente al rendimiento. Además de la enorme cantidad de glitchs y otros artefactos asociados.

      Estos dos efectos si los combinas con SSAA posiblemente no sea manejable en una GTX 680, excepto que te limites a algo del tipo 2xSSAA. Que va bastante bien, aunque siendo tan inestables y bugueados los efectos mencionados (TressFX sobre todo), no suele ser una buena idea.

      Pero vamos, el juego realmente se puede usar con SSAA, y como él otros, yo jugaba a SniperV2 con 2.5xSSAA, y desactivaba los efectos DirectCompute de AMD porque éstos eran los que más lastraban el rendimiento (recientemente con los efectos DirectCompute activados las gráficas de nvidia han ganado un +25% de fps, comprobado por mí mismo). El SSAA es más asumible de lo que la gente se piensa con las Kepler pequeñas.

      De la misma forma que DirectCompute funciona bastante bien en estas gráficas SI están bien implementados los efectos.

      La Titan me parece una sobrada para jugar a 1080p, pero bueno, tú mismo. Tampoco tengo claro que se vaya a ver alguna Titan más "barata" claramente, si la serie 7 saldrá en unos meses (se pisarían las 7 más avanzadas y las Titan rebajadas).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Ximi:

      Me referia al filtro AA con SuperSampling , afectan los 4 GB de tenerlos , no ?

      Mejor tenerlos en ese caso para la mayoria de juegos pc y benchmarks sinteticos.

      No, es un filtro como cualquier otro con un consumo X de VRAM extra, no por ser supersampling significa que necesite más de 2GB de VRAM por obligación, lo que sí necesita el SSAA es ancho de banda. Que de todas formas, es el mismo de una versión de 2 GB que de 4 GB.

      Depende del juego que se mire, pero la grandísima mayoría, con supersampling o no, rinden igual. Evidentemente siempre puedes forzar las cosas para que consuma mucha más VRAM una aplicación de la que le toca, quizás forzando MSAA encima de SSAA o algo del estilo y usando tres monitores, pero entonces no esperes tampoco un rendimiento adecuado con 2 o 4 GB de VRAM.

      Este tipo de gráficas van bien emparejadas con los 2 GB de VRAM, los 4 GB son más un punto para el marketing del modelo que para su rendimiento real.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Ximi:

      Entonces las 4 GB seran importantes o necesarias en cuanto usemos gran cantidad de filtros etc ….. , no ?

      Bueno ya veo que no es para tanto la diferencia.

      Sólo si el uso de esos filtros hace que se supere realmente por la aplicación los 2GB de memoria gráfica en uso.

      Si no es exactamente lo mismo.

      @josele:

      Al modificar la bios puedes subir los ventiladores, limite Power Target y en teoria el voltage pero esto no hace que mejore mucho el OC en las GTX 680 supone 40-50mhz nada importante, por que nvidia a limitado el consumo de sus gpu con un chip independiente a la gpu. que mantiene el consumo y las temperaturas en los limites que ellos consideran seguros… sin posibilidad de modificarlo.

      Te confirmo que puedes cambiar todo eso que dices al comienzo, más por supuesto frecuencias. Pero el límite de OC, que dependerá de cada gpu, ganado con el sobrevoltaje (que en mi caso confirmo esos 40-50 MHz extra), depende de cada unidad, y no está limitado en absoluto por ese chip que mencionas independiente a la gpu. Ese poca ganancia (aunque eso de "poco" es relativo) se debe a que el sobrevoltaje permitido es de hasta 1,2125V, y ahí sí parece haber un límite impuesto por hard (se dice que eso no pasa en todas las placas Kepler, que algunas se puede ir más allá), voltaje que respecto al de serie de 1,175V es un 3,2% mayor. O sea, que además de que seguramente el punto de voltaje 1,175V en cuanto a escabilidad de frecuencia es el punto de inflexión de la curva frecuencia/voltaje, además el sobrevoltaje del que estamos hablando es de sólo el 3,2%. O sea, es un sobrevoltaje bastante modesto y que por tanto tampoco se puede esperar milagros para llevar la gpu muy por encima de lo que consiga a 1,175V. Es bastante lógico, de hecho lo que pasa. Sin necesidad de explicaciones de "chips externos".

      El consumo sí se modifica, y la temperatura, bueno, excepto que estemos hablando de superar los límites seguros de temperatura, para cuyo control no hace falta ningún chip en placa, sino que directamente el propio driver puede cortar "gas" leyendo los sensores internos de la gpu, pero no porque sea una "limitación artificiosa", sino porque es necesaria para evitar que se dañe la gpu.

      Cualquier cpu o gpu moderna se protegerá bajando frecuencias o incluso bloqueándose/apagándose si se supera cierto "disparador" de temperatura considerada pelligrosa, pero esto con cpu/gpus no sólo de nvidia, sino de AMD o de intel, etc.

      Sobre consumos, mi gráfica ha superado holgadamente el "tope" de consumo máximo permitido de serie (+122%) gracias a la modificación de la BIOS, así que esa parte de lo que has dicho no es cierta, porque he visto justo todo lo contrario haciendo una modificación de la BIOS. Chips de control de TDP y demás llevan todas las gráficas modernas, pero eso no quiere decir que el límite de TDP sea un límite "hard" y no configurable.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Ximi:

      Ok , entendido.

      Pero a las preguntas que he lanzado no se me ha respondido.

      Basicamente , si pasas los Test Sinteticos con dos GTX 680 , una de 2 GB y otra de 4 GB con los mismos clocks en overclock , cual te dara mejor resultado ?

      A lo de si era GK el nemotecnico del chip , dudaba entre esos dos y era el que no puse , el GK.;D

      Dependerá de si el test sintético que pases usa o no más de 2GB de VRAM, porque si no los usa ya te digo que el resultado será el MISMO en ambas, y en caso de que sí haya algún uso de VRAM por encima de los 2GB, la versión de 4 GB irá desde ligeramente a mucho mejor (según la cantidad de VRAM que realmente usa la aplicación, y ojo, NO confundir esta VRAM en uso con lo que pone el medidor de memoria gráfica en Afterburner, no ya porque no mida la memoria gráfica usada por una aplicación X, sino porque aunque lo hiciera, no es lo mismo medir la memoria VRAM usada al más puro estilo de una "victim cache" en gráficas con mucha VRAM a la auténtica necesidad de más VRAM para renderizar una imagen.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • 1 / 1