• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. wwwendigo
    3. Mensajes
    W
    • Perfil
    • Siguiendo 0
    • Seguidores 0
    • Temas 0
    • Mensajes 262
    • Mejor valorados 0
    • Controversial 0
    • Grupos 0

    Publicados por wwwendigo

    • RE: Ayúdenme a decidirme por cual de estas.

      @Franziskaner:

      esplendido aporte .
      pero tu sigue sigue , que esta claro que te gusta decir la ultima .
      lastima que boncoe se a comprado ya la gráfica ,por que sino seguro que tendría mas dudas .
      saludos
      P.D y yo por mi parte dejo el tema -

      Oyes, te estás poniendo un poquito borde de más, ¿no crees? Que yo a ti no te he vacilado ni intento tener la última palabra (más bien estoy DÁNDOTE LA RAZÓN), así que si has salido escocido con la discusión con el otro contertulio, no la pagues conmigo.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Ayúdenme a decidirme por cual de estas.

      @Franziskaner:

      Para ti la perra chica.
      Saludos

      Joer cómo se ah puesto el tema… :osvaisacagar:

      Entendido el comentario inicial, ambas soluciones son similares, son heatpipes de cobre (alta transferencia del calor, buen conductor de éste al sumidero de calor desde la fuente) contra disipadores de aluminio (ligero, permitiendo diseños de gran tamaño y cantidad de superficie sin problemas de peso, alto calor específico, luego buen sumidero del calor), pero siempre es preferible que además los chips de memoria hagan contacto con el disipador de alguna manera. El cómo no es tan importante porque son focos bastante secundarios de calor, pero desde luego algo ayuda el que estén en contacto hasta con un simple backplate.

      Ya lo del "reflujo de las heatpipes" de arriba para abajo que se ha dicho, y temas del condensador de fluzo, ni me meto, pero las soluciones son muy similares, y lo que es más importante, sobredimensionadas para esa tarjeta.

      Ergo la que más guste o sea más silenciosa (posiblemente la EVGA por tener dos ventiladores en vez de tres, y por usar dobles rodamientos, aunque si por tener 2 ventiladores gira más... pues igual la teoría se cae, de ahí que no me atreva a afirmar cuál debe ser más silenciosa).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Ayúdenme a decidirme por cual de estas.

      @Franziskaner:

      si te lees la rama entera lo entenderas
      saludos

      Ya la leí pero sigo sin tener claro si es por hacer broma o lo dices en serio, que a mí me da igual pero por evitar confusiones, te cito y aclaro y digo que sí, hay heatpipes, y sí, son de cobre (el minuto que citas muestra el disipador por abajo y los heatpipes, pero tus líneas posteriores pueden interpretarse tanto como una broma como por una aseveración, no será el primero que relaciona el acabado de un disipador con el material como has puesto). Cosas mucho más extravagentes se han tomado como dicho en serio por foros, la verdad.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Ayúdenme a decidirme por cual de estas.

      @Franziskaner:

      ;D
      minuto 13 +o-


      pues el sistema no esta nada mal , cobrizo = cobre , plateado = ¿níquel? no …. aluminio
      bromas a parte .

      la EVGA, monta un Backplate que quieras que no siempre hace algo mas a la hora de refrigerar los módulos de memoria que no tenerlos "a el aire"
      la Gigabyte, tengo una 660 OC ( el modelo anterior a este ) y todo son virtudes , no creo que sea necesario el 3º ventilador pero …..
      utiliza un sistema de head pipes con contacto directo con la GPU
      hablando de ventiladores , los de la EVGA son de doble rodamiento .
      cualquiera de las dos es una buena compra , la mejor .... la mas barata ;D
      saludos
      enlaces de los datos
      gigabyte
      Gigabyte GTX 760 WindForce OC 2 GB Review | techPowerUp
      evga
      EVGA GeForce GTX 780 Superclocked ACX Cooling Video Card Review - EVGA GeForce GTX780 w/ ACX Cooler - Legit Reviews

      No sé si quieres sugerir que las heatpipes de la eVGA son de aluminio, pero en el vídeo dice claramente que son de cobre, otro asunto es que tenga como se ha visto en multitud de casos, un acabado "niquelado" que de hecho también lleva otras partes del disipador, pero eso es sólo un cambio estético. Es cobre y funciona igual que cualquier otra heatpipe de cobre "al aire", básicamente.

      Por otro lado los dos sistemas de refrigeración cubren de sobra las necesidades, me gusta más la gigabyte, pero creo que la decisión es la más barata, a falta de pruebas acústicas para ambas gráficas (en ese caso podría argumentar que la más silenciosa, pero como no sé cuál es, pues la más barata).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @fjavi:

      Pues a esa 760 le han metido un OC considerable, vamos que en OC no se parecen en nada a la 660, luego dos 660 deberían rendir como una 780, quedaran cerca lo malo es cuando el SLI no va bien, también que la 780 será mas estable y funciona siempre.

      Pero el SLI tiene mas desventajas, necesitas un equipo que no le haga cuello botella, dos tarjetas exigen mas equipo que una, por ejemplo una 780 pedirá menos equipo que un SLI de 660.

      pero pasar de 660 a 760 yo no lo veo nada recomendable, lo suyo es pasar de 570,460,470,6970,6950, desde esas graficas ya merece mas la pena, teniendo 660 o 7870 es mejor esperar otra generación, aunque a mi la 760 me parece bastante mejor que una 660, lo único que esta cara pues debería valer lo que la 660 antes de que sacaran la 760, pero es un GK104 mas calidad de componentes y seguro que mas oceable.

      saludos

      No lo creo. Eso parece más bien un mito creado con una media verdad.

      Y es que los sistemas SLI son más exigentes que un sistema monogpu basado en una unidad de las montadas, por razones obvias (más llamadas al API D3D/OpenGL, renderizado de más frames por segundo), pero no necesariamente más exigentes que un sistema monogpu de potencia equivalente.

      Lo que pasa es que estamos tan acostumbrados a ver los resultados usando el mismo modelo con una y dos unidades (con las exigencias extra implícitas por el incremento de potencia gráfica), o que las opciones más exigentes prestacionales sean multigpu y por tanto el tope que define la potencia en gráficas (sigue siendo la GTX 690 la tarjeta más potente de nvidia, por ejemplo), que ya damos por hecho que hay "algo" en los SLIs que hacen que pida más cpu.

      Pero si se piensa un poco en esto, se verá que no. El modo AFR de funcionamiento típico de los SLI implica que la cpu trabajará de forma muy similar a si tuviera una potencia gráfica monogpu equivalente, ya que el sistema gráfico irá pidiendo "frames" al sistema (que los prepare y transfiera datos, etc), y las dos gpus trabajan alternando frames separados temporalmente de forma muy similar a lo que pasaría con una monogpu muy potente.

      Si fuera algún sistema alternativo a AFR, donde hay que compartir y transferir si cabe más datos entre gpus, o enviar la misma información del mismo frame a ambas gráficas, podría ser. Pero con el método AFR para la cpu sus tareas son muy similares a una monogpu que haya duplicado su potencia. Apenas hay sobrecarga por otras razones como la gestión de cada dispositivo (gráfica), o es simplemente despreciable.

      El meollo de la carga de trabajo está en la gestión de los datos para renderizar cada frame (que implica que el motor del juego debe generar un frame a renderizar, con todas las actualizaciones de estado del motor, etc), y en el caso de un SLI, más allá del incremento en potencia derivado del SLI, no hay razón para pensar que hace falta más potencia que para una monogpu equivalente.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda tarjeta gráfica NVIDIA GeForce 610M

      @Scrat_G:

      Buenas.

      Me voy a comprar un portátil ASUS, procesador i7, 8GB de RAM, y tengo dos opciones: una más barata con una tarjeta gráfica Intel HD Graphics 4000 o otra más cara con una NVIDIA GeForce 610M.

      El portátil lo voy a utilizar para edición gráfica (Photoshop, Cinema4D, After Effects…) y también para algunos juegos que no requieren un ordenador muy potente, estilo Minecraft.

      Que tarjeta gráfica me aconsejan?

      Saludos y gracias.

      El rendimiento es muy parecido, quédate con la opción más barata, no merece la pena pagar nada extra en un portátil por nada que esté por debajo de una 630M GDDR5 si lleva una igp intel integrada como ésa, perfectamente capaz de igualar a las soluciones más bajas para portátiles de nvidia/AMD.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Caida de fps al mover el personaje

      @incrediboy:

      blur motion es cuando los objetos en movimiento dejan una especie de estela tras de si? ¬¬

      Sí, pero podrías probar con cualquier opción que diga "post proceso" o similares, si hay una dependencia fuerte entre frames el rendimiento de una multigpu puede reducirse en algunos caso al de una gráfica, como decías que te pasa al moverte, cualqueir tipo de efecto de postproceso que esté vinculado a cuando te mueves podría tener algo que ver.

      Pero veo que en principio esto no parece ser.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Caida de fps al mover el personaje

      @incrediboy:

      buenas, hace unos dias he vuelto a instalar el aion, y tengo un problemilla que no consigo solucionar.

      en una zona (da igual que zona), con una sola grafica o con el sli desactivado tengo unos 30-35fps. si activo el sli, en la misma zona tengo 60fps constantes (limitados a 60 por el vsync) con la carga de las dos gpu rondando el 100%, hasta ahi todo bien. si giro la camara los fps se mantienen constantes, pero en el momento que muevo el personaje (caminar o correr) la carga de cada gpu baja al 50% y los fps caen a valores de una sola grafica.

      se supone que este juego soporta sli sin problemas (de hecho estando parado va perfecto), y cuando muevo el personaje el sli sigue activo, solo que con las graficas a medio gas.

      alguien tiene idea de por que pasa esto? en el panel de control de nvidia tengo el sli activado, en otros juegos va bien…

      Voy a hacer una apuesta arriesgada, ¿el juego tiene blur motion?, si lo tiene prueba a ver cómo rinde desactivándolo. Es una curiosidad, más que nada, pero igual atino.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Experience

      @Franziskaner:

      el equipo :
      amd 965 ( 4000)
      gtx 660 OC (110%)
      ram DDR2 800 4G
      M4N82 deluxe
      tacens Valeo II 700
      las capturas las e realizado con el Fraps en el mismo mapa y jugando 64 jugadores
      gráfico sin optimizar y con todo en ultra

      grafico optimizado :llorar:

      decir que optimizado pega unos saltos tan cafres que mejor no hablar :llorar:

      ¿Pero qué parámetros cambia el Geforce Experience para que cambie el rendimiento así? Si ya está todo en ultra, tiene que activar alguna guarrada extra para que baje así el rendimiento.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Dilema entre estos modelos

      @garfield:

      Pues lo que acabo de leer:

      AnandTech | Some Quick Gaming Numbers at 4K, Max Settings

      Se que el tema aquí no va por lo de 4k, pero parece que de todas, la 7950 debería ser la mejor en calidad-precio. Sólo extrapola los datos de las gráficas a lo que puedes gastarte, y te da que por menos de lo que cuesta una titan montas un sli de 7950 que tirará de sobra con 4k, con lo que también lo hará a resoluciones normales con juegos.

      ¿Pero cómo puedes decir que va de "sobra" para 4K un CROSS de 7950 (2), si en el link que has puesto aprece un CROSS de 7950 (3) que en dos de los tres juegos probados, dan rendimientos de 30-40 fps (o sea, injugables o poco jugables?

      Además de que esa situación de 4K es absolutamente irreal para comparar rendimientos incluso futuros, pues se está forzando un consumo exacerbado de VRAM y ancho de banda al usar para semejante resolución métodos de MSAA (consume RAM) y SSAA (consume más RAM) como es el caso de Sleeping Dogs. Es una forma bestial de consumir y desperdiciar, de hecho, ancho de banda y VRAM.

      Es una situación artificiosa porque además de llevar al límite en un punto muy concreto el rendimiento y el consumo de VRAM, además de ser un rendimiento teórico poco útil, pues a pesar de todo los resultados son de rendimiento tan bajo que es injugable igualmente.

      En serio que la gente os dejáis comer la cabeza por el marketing cosa fina. El tema de los 4K es absurdo en grado mayúsculo, cuando de facto hemos tenido un estancamiento o involución en monitores para escritorio al pasar de formatos 4:3 a 16:10 y finalmente a 16:9.

      Yo hace una década larga usaba monitores de resolución 1600x1200 que no andan lejos de lo que es actualmente un fullHD estandarizado y ubícuo. Un monitor de gama alta usaba de hecho mayores resoluciones. Pero se jugaba a 1024x768 o 1280x1024 normalmente. La evolución en resoluciones siempre ha sido relativamente lenta, a finales de los 90 se hablaba y se medía rendimientos en 1600x1200, pero como punto de resolución y calidad máxima, siendo las resoluciones reales usadas más bajas.

      Es como medir actualmente el rendimiento en 2560x1600 (que es poco más que el doble que la "arcaica" resolución 4:3 de 1600x1200), es una gran resolución y "posible" hoy en día, pero poco usada en la realidad por el enorme coste de los monitores (600€ para arriba, algo menos si te conformas con 1440p).

      Los monitores 4K no es que no estén a la vuelta de la esquina, no, es que están tan lejos de ser barajables como opciones para gaming, que igual hay que esperar al cambio de década. Se estaría hablando de casi 8 MPx de resolución frente a los actuales 2 MPx usados en 1080p. Es que las gráficas actuales, ni con multigpu están diseñadas para mover realmente los juegos modernos (no los futuros que además serán más pesados) a esa resolución. De hecho esa gráfica así lo muestra, con las Titan en 3-SLI bajando y a veces bien de los 60 fps deseables. Nadie que se compre semejante cantidad de hard gráfico lo querrá para maljugar a 40 fps. Antes se queda en resoluciones más rasonables como la de 1600p.

      4K es pura mercadotecnica para vender TVs a precio de oro, ni más ni menos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @fjavi:

      Muy buena reviews, en cuanto a los precios pues totalmente de acuerdo, son empresas que solo miran por ganar dinero y parecen no darse cuenta que a un mejor precio quizá ganaran mas, por que venderían mucho mas.

      yo creo que la que debía costar 600€ aunque tuviera 3Gb es la Titan, la 780 mas barata, pero se aprovechan también de la falta de competencia, ahora te sacan 770 y 760 y ya compiten en rendimiento/precio contra la competencia, las otras las ponen como exclusivas.

      Pero viendo como están las cosas no compro nada a menos que vea alguna 680 de esas SOC a 200€ o menos, somos nosotros los que tenemos que impedir que estos precios sean la norma para futuras generaciones, con Intel igual hasta que no saque algo que me convenza no le compro, pues parece que los 4770K traen otra vez la chapuza de los 3770K y los 4970x si que parece traen soldado el IHS, se ve claro que quiere que el OC se pague caro, asi veo lo que afectan las consolas y si se van a necesitar mas nucleos.

      saludos

      Yo los he tenido en 3 equipos y dos siguen teniéndolos, no he tenido problemas, pero veo tanta queja, aunque últimamente soy muy incrédulo, hace años no creo a las televisiones ni a los periódicos, pero ahora ya hasta dudo de Internet, como no me lo diga alguien conocido que le haya ocurrido no hago ni caso.

      No quiero vivir preocupado, parece que nos quieren meter el miedo con todo en esta vida, y yo no quiero vivir con miedo, si pasa algo que pase pero no voy a vivir preocupado de lo que pueda pasar.

      saludos

      Respondo por la parte que me toca, efectivamente, estos drivers a mucha gente no nos dan problema alguno, no voy a negar lo que sí parece que es real, que estos drivers provocan problemas en algunos casos de bugs, inestabilidades o artefactos gráficos. Todo eso está más o menos bien documentado, y es fácil trazar que hay una realidad detrás porque un artefacto gráfico presente en este driver pero no en los anteriores es algo más que un indicio.

      Ésta es la parte de realidad del tema de los 320.18, y de ahí que salieran con las GTX 760 la beta 320.40, que ataca principalmente estos problemas, da soporte a la GTX 760, y…. no añade ninguna mejora en rendimiento desde el 320.18 (bueno, quizás algún perfil SLI, eso no lo controlo al detalle).

      Pero lo de las gráficas ¿quemadas? ya es harina de otro costal, y efectivamente, ya no te puedes fiar de nadie, yo diría que en internet aún menos que por otros medios, pues es un medio donde cualquiera puede alcanzar su pequeño minuto de gloria (o milisegundo, más bien) a base de lanzar un bulo sustancioso.

      Lo que tampoco digo es que este caso sea un bulo (estaba pensando en varias noticias publicadas de este sector que... tela), pero el problema está en que un dato dicho desde la ignorancia alcanza un relieve de "facto", porque hay que pensar que muchas veces el mayor problema de la red no es el exceso de la información, sino de desinformación, se han visto muchos ejemplos, campañas de contrainformación interesadas, opiniones totalmente personales tomadas como hechos, o como creo que es el caso, el desafortunado incidente de unos pocos usuarios, con la muerte de sus gráficas coincidiendo con el uso de estos drivers, con la creación del silogismo como conclusión de su problema como culpa de los drivers, dado que se estaban comentando en ese momento por foros los problemas que creaban dichos drivers (de estabilidad o bugs gráficos, no muertes).

      Una cosa lleva a la otra, y de hecho se han visto usuarios españoles que han interpretado esto de esta manera sin prueba algna, tengo un ejemplo fresco en la memoria, sin la más mínima prueba sólo porque en los foros se decía que estos drivers provocaban muertes de gráficas.

      Y así se han visto cosas como las vistas, donde gente se creía que por tener instalados los drivers 320.18 durante un ratito con gráficas a estrenar, y navegar por la red y usar windows hasta leer la "fatídica noticia", y pasar presto a desinstalar e instalar otros drivers y, comprobar que tras reiniciar el sistema y probar EL PRIMER JUEGO 3D la gráfica no funcionaba, tras esto el usuario llegaba a la conclusión de que fallaba la gráfica NUEVA en su primera sesión 3D con otros drivers distintos por haber tenidos instalados los drivers "de la muerte" sólo un rato y en 2D un poco antes.

      En vez de llegar a la conclusión más simple y que la navaja de Occam apoyaría de que el fallo era porque simplemente la gráfica ya venía defectuosa de gráfica, y así lo vió en cuanto le exigió ponerse "seria" en cuanto a rendimiento (subida de consumo y frecuenicas, electrónica por tanto trabajando a plena carga, un componente mal soldado y.... bingo!!).

      Para mí ha sido un ejemplo muy claro de cómo funcionan estas cosas en la red, ya suelo ser muy observador con estos fenómenos de "transferencia de memes en redes sociales" por, digámoslo, un poco de deformación profesional. Y siempre me asombra la capacidad que tiene la gente para transformar una interpretación muy personal de X en una verdad absoluta, y que esto genere un efecto de bola de nieve totalmente fuera de lugar.

      Por desgracia inet es lo peor para la información contrastada, lo primero que hay que aprender a la hora de usar inet como fuente de información, para lo que sea, es a aplicar una serie de filtros informativos y "validaciones" básicas basadas en la competencia de la fuente informativa, posible vericidad, etc.

      Pero como esto no se hace, o por lo menos la mayoría no lo hace, así nos va. Creyéndonos que Perez Reverte escribió en su columna "Patente de Corso" cartas que no son de su autoría, p.ej.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @fjavi:

      No te han quemado las graficas los otros?
      Se dice que traen varias ojivas nucleares, yo los he tenido desde el primer dia y las mias ya de por si son calientes pero nada ni por esas.

      Casi podían darme la justificación de cambiar, pero bueno a ver estos que tal.

      Saludos

      A mí no me ha quemado ninguna gráfica, eso es una falacia como una casa!!

      Aunque tengo que reconocer que desde que instalé los 320.18 whql han ocurrido una serie de apagones misteriosos en mi calle, no tendrá nada que ver claro, se me ha quemado además el microondas y también que los perros de los vecinos se ponen a aullar cuando la carga de TDP de mi gráfica supera el 110%.

      Pero todo es una coincidencia, o quizás no, quién sabe, jeje. Putos drivers… :troll:

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @fjavi:

      Si es una fuente de calidad no debería tener problema, sobretodo si no haces mucho OC, a mi una tx850 me aguanto bien con dos 480 y un 920 a 4200,ademas metia OC a las 480 y no ocurria nada, la 780 consume menos que la 480, no debería haber problemas si no haces un OC exagerado tanto a CPU como a graficas.

      Luego en el tema del hilo ya se ven las 760 y precio no esta mal pero creo que en cuanto haya stock van a ir bajando, al igual que la 770, también tendrán que bajar ya la 670,660Ti por que sino mal las veo.

      T. Gráfica Gigabyte GTX760 2GB DDR5 N760OC 2GD
      Tarjeta grafica ASUS GTX760-DC2OC-2GD5

      saludos

      La tarjeta está muy bien por el precio que tiene, ya que por 250$ pelados, es mejor opción que las GTX 660 Ti y con OC se acerca el rendimiento de toda una GTX 770.

      Esto es, es más barata que las GTX 660 Ti y más rápida, y además más "estable" en su uso de VRAM y sin falta alguna de ROPs/ancho de badna. Lo que hace que sea una especie de GTX 670 LE, por definirla respecto a la generación anterior (Sí, sé que había una GTX 660 OEM muy similar).

      Si pasa como con las GTX 770 en un par de semanas veremos varios modelos rozando los 230€.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Administración RAM iGPU

      @jazxz:

      Buenas a todos :

      Primero que nada soy medio novato en el tema de procesadores nuevos y tenia algunas dudas al respecto. Tengo la siguiente placa madre P8B75-V de Asus quiero habilitar RAM para la grafica integrada del micro y tengo entendido que el nuevo sistema que usan estos micros es DVMT que asigna dinamicamente RAM segun sea necesario el requisito del programa. Tengo la opción en la bios iGPU Memory [64M]

      El tema es que nose que valor asignarle, el valor que me marca por defecto que es 64 es el tope maxima que puede llegar a alcanzar la integrada ? . La verdad nose. Yo le he colocada en este apartado [512] pero nose si esta bien.

      Mi idea es utilizar el lucidvirtual MVP con la integrada. Por el momento tengo el D-mode que usa la grafica no integrada. Osea esoy usando una grafica ATI 5870 HD.

      Caracteristicas del equipo:

      Procesador : Intel i7 3770 K

      Placa madre : P8B75-V

      RAM = 8 GB PNY.

      HD : SSD 180 Gb

      Saludos a Todos.

      Por lo que entiendo la idea principal del MVP es usar la iGPU de la cpu como una gestora de la salida a pantalla, básicamente una VGA framebuffer y poco más, mientras que la dedicada se dedica a renderizar tan rápido como puede.

      Siendo así la iGPU apenas necesitará RAM para poder funcionar correctamente, podría valer perfectamente con ese valor de 64 MB que pones, pero si te entran dudas súbelo a 128 MB o como mucho ya, en un exceso, a 256 MB, y con esto debería ir sobradamente bien esa combinación de gráficas gestionadas por la tecnología de lucidlogix.

      Sin embargo como veo que no es muy popular esto, puede que no sea ideal en algunos casos, ya que desde luego desde que salió ha tenido de todo menos una adopción masiva, puede que por problemas en algunos casos. Si ves anomalías en cómo funciona y no se arregla toqueteando lo de la memoria, te renta más deshabilitar la tecnología de lucidlogix que otra cosa. Un aviso por si acaso.

      Otra de las ventajas de esta tecnología es que permite usar el hard dedicado de la gpu de intel para compresión de video, un hard que parece ser muy rápido, otra cosa que puedes hacer con este soft que dices, usar la compresión de vídeo de intel y seguir usando simultáneamente la gráfica 3D para las cosas potentes.

      publicado en Procesadores
      W
      wwwendigo
    • RE: Intel Core i7 4770K (Haswell)

      @PistonS:

      totalmente de acuerdo en todo, solo corregir el negrita, para que no se lie la peña, el fallo no es que la pasta termica sea mejor o peor, el fallo es el pegamento del IHS, que hace que la separacion con el DIE sea excesiva, tengan que poner mucha pasta para reducir dicha separacion, solo con rascar el pegamento y quitar un poquito del exceso de pasta se arregla, es mas, algo he leido de que la pasta, realmente, es de muy buena calidad,…

      saludos

      PD. no descarto que mi siguiente cambio-trasteo, sea solo una placa Z77, para aprovechar sus bondades, y listo, y seguir con el 2600K que me siga dando alegrias,....

      Pues aún mucho peor me lo pintas, porque ya sería cutrería con detalles menos importantes pero que se volverían críticos y con una "mantenella y no enmendalla", con un par. Pero creo creo en el fondo es que casi quieren que sea todo así, las arquitecturas las siguen puliendo y mejorando, pero parece que no quieren correr demasiado deprisa y desde luego no nos quieren dar grandes novedades como más cores así como así.

      En fin, que será por cacharreo pero la verdad es que el panorama que nos presentan es muy triste y poco interesante para el que tiene máquinas modernas.

      @Garfield:

      Es que para más inri parece que han sacado unos ivi-E, con soporte ddr 1866, y unos xeon basadon en ivy nuevos, aparte de otros modelos más o menos refritos como suelen hacer Nvidia y AMD.
      Con lo que si no se fian de haswell para hacer los xeon, son más calenturientos, los 4770 a secas traen virtualización, los K no y los 4771 tienen virtualización pero no Oc, me da que mejor me espero hasta que termine el verano para pillar algo, y si me ale un 3770 lo pillo y ya está. A ver si para entonces arreglan lo de los cuelgues al suspender el equipo con usb 3.0. Demasiado.

      No, eso ya lo venían haciendo antes con los Sandy vs Ivy, cuando sacaron los Ivy para LGA 1155, sacaron los Sandy-E con las mejoras extra y para LGA 2011, y así con todo.

      Intel está manteniendo un desfase muy curioso entre cpus top gama y cpus de su plataforma principal, haciendo que en la última tengan las últimas novedades y mejoras, y en las demás tengan la potencia bruta pero …. usando cpus de la hornada anterior. :ugly:

      Son la hostia. Pero claro, la opción en el mercado es irse a un FX, y eso como no mejoren y bastante el rendimiento en los Steamroller por venir, por lo menos por mi parte va a seguir siendo que no. Aún con una intel tan tocahuevos con sus novedades. :wall:

      publicado en Procesadores
      W
      wwwendigo
    • RE: Intel Core i7 4770K (Haswell)

      @fjavi:

      No, AMD es el único que permite el OC, Intel y Nvidia son los que se han propuesto que solo exista un turbo y poca posibilidad de un OC importante, al menos con Nvidia se puede cambiar bios, pero mucha gente no va a tocar una tarjeta tan cara.

      Intel ya lo hace descaradamente,si quieres OC un K y con cada nueva serie el OC va menguando, además que se calienten para que no se puedan ocear mas, solo espero que pierdan montones de ventas en portátil y sobremesa a ver si asi rectifican.

      Esto lo hacen por que están en una posición dominante, si hubiera mas competencia dudo que lo hicieran.

      saludos

      ¿Que nvidia permite un OC poco importante?:

      De mis propios datos, con 2 GTX 670, y OCs cercanos al rendimiento neto tras éstos del 20%. Tanto o más que en mis anteriores y últimas gráficas (GTX 560 Ti, GTX 260,8800GT, etc).

      Una cosa es que nvidia no te permita jugar a lo loco con los voltajes, por cierto si ha tomado esta decisión es por la subida de RMAs importante en ciertos modelos de gama alta Fermi, y otra que cape el OC.

      El OC lo puedes hacer exactamente igual que antes, el boost no capa absolutamente nada, para quien sabe entender en qué consiste y cómo manejarlo (a mí en ninguna de las 2 GTX 670s me han bailado las frecuencias excepto en la de referencia por temas puramente relacionados con temperatura, arregables bajo el sacrificio de ruido en el ventilador).

      La única diferencia con los rivales es que éstos te permiten subir voltajes mucho más (porque las GTX 770 en sí tb lo permiten), lo cual entre otras cosas también ha llevado a una subida espectacular de los RMAs gestionados en la generación GCN de AMD.

      Antes de hablar tanto de lo que puede o no hacer una familia de gráficas, conviene probarlas, he visto gráficas mucho más limitadas en OC que las actuales de nvidia (excepto ciertos modelos que no dan más de sí en OC porque ya están muy apretados de serie).

      Saludos.

      publicado en Procesadores
      W
      wwwendigo
    • RE: Intel Core i7 4770K (Haswell)

      @fjavi:

      Pero es que Intel tiene delito, tropieza 14 veces con la misma piedra, pues ojala sean un gran fail, decían que el problema en Ivy era un DIE muy pequeño, ahora tienen mayor die y meten la pata igual, creo que Intel, Nvidia ya no quieren permitir un buen OC a sus CPU o GPU, por lo menos a las Performance y como las cosas sigan igual no ven ni un euro mio, menuda decepcion, procesadores caros y fallan mas que una escopeta de feria, luego Nvidia graficas buenas pero a precio de oro y si quieres OC te toca flasearla, osea que no me gusta nada el rumbo que esta tomando esto del hardware, luego se quejaran de que se venden pocos Pc, no tenían que vender nada.

      Yo no quito el IHS a un CPU, si son calentones pues seguire esperando.

      saludos

      Es que no es un tropiezo, es a propósito. Está claro que a Intel se la trae al pairo las quejas, sabe lo de la pasta térmica en Ivy, no lo corrigió con éste, tampoco lo va a hacer con Haswell.

      Es lo mismo que el OC, primero nos pone los dientes largos con nuevos "straps" para el bclck, haciéndonos creer que se podrá hacer OC al bus a todas las cpus Haswell y por tanto sacar mejor provecho no sólo a las cpus K, sino a las no-K. Si es en una cpu donde tenga sentido auténtico lo del OC del bclck es en las cpus ordinarias, no en los K, y así vemos lo que han hecho.

      Ahora por quitar también han quitado el mínimo OC que se podía hacer en TODAS las cpus anteriores, sin necesidad de ser K. Esto es, antes cogías un 2600 normal y podías subirle el multiplicador a cada velocidad boost de la BIOS un +4X, haciendo por tanto que de forma efectiva la cpu ganara así de fácil 400 MHz (esto es x lo que tantas veces he dicho que es falso que las únicas cpus donde puedes hacer OC es en las K, eso no es cierto). Después si tal jugando un poco con los escasos márgenes del bclck, podías sacar un OC total de la cpu entre 500-600 MHz, que no está mal del todo.

      Pues esto también se acabó, en Haswell no se pueden subir ya esos tristes 4X extra en los modos boost, eliminando la única vía de OC que aún quedaba antes. Ahora sólo queda como "alternativa" tocar el bclck y ver dónde llega sin inestabilidades del sistema, esto es, normalmente entre 105 MHz y 107 MHz, lo cual da una ganancia de OC del 5-7%, ridículo vamos.

      Intel, intel … qué cómoda estás que tanto freno metes a tus clientes a sus aspiraciones, mala pasta térmica, eliminación del OC básico de los no K, straps del bclck ridículamente bloqueados para cpus K que no tienen necesidad alguna ni sentido de usarlo, etc.

      publicado en Procesadores
      W
      wwwendigo
    • RE: Intención de montar un sli. Dudas.

      @fjavi:

      Esa 8800Gt debe rendir mejor que mi 9800GTX, la grafica que mas me ha decepcionado 4 meses ya cambie a otra, por que nunca me parecio que se jugara mejor que una GTS, era poner el NFS MW y con la GTS hacia tiempos muchiosimo mejores a pesar de rendir menos, el único juego donde si se podía decir que la gtx tiraba mejor era en cod4.

      Claro eso comparado al salir la GTX si comparamos años después ya ninguna vale para nada, si para physX, en juegos actuales se arrastran las dos.

      Ademas el OC la GTS desde 500 MHz hacia los 700 o mas y la GTX 675 y a 800 ya reventada de OC, lo único es que la 9800GTX no fue tan cara como una 680, ni siquiera como una 670.

      saludos

      Otro juego que le dí caña precisamente, el NFS MW (el primero), en los tiempos de mi anterior 8800GT (no la que digo que he mirado hace poco), y te digo que me iba de lujo que me acabé el juego como un campeón, sin problemas, y eso de ir a unos 300 Km/h en urbano, aunque sea por circunvalaciones, tenía su complicación y exigencia de reflejos.

      El OC de la 88000GTS, la que yo te digo es bien bajo, para nada algo que una 8800GT básica no hiciera. Pero bueno, siempre se tiende a recordar lo que ha salido caro y rendía muy bien en su momento como mejor de lo que al final era. Yo ya te digo que cogí ambas gráficas y ajusté calidades en juegos como Batman AC y similares, y con la misma calidad la 8800GT daba más fps e iba mejor (porque una cosa suele implicar la otra aunque no haya en absoluto una "mejor entrega" de frames, simplemente porque más fps entregados de la misma forma "irregular" está más cerca de tapar cualquier anomalía que lo mismo con menos fps).

      En PhysX, por cierto, te recomiendo echarle un ojo a esto:

      http://wwwendigo.blogspot.com.es/2012/04/merece-la-pena-reciclar-una-tarjeta.html

      Como podrás comprobar en dicho artículo, a la GTX 560 Ti le iba mejor estando sóla en la mayoría de pruebas que usando a la 8800 GTS 640 MB, pero cuando usé la 8800GT para lo mismo un tiempo después…. me llevé la grata sorpresa de que iba mucho mejor.

      No es que tenga más poder de shaders para PhysX (+33%), es que la mejora va mucho más allá gracias a la arquitectura levemente más moderna y capaz en GPGPU/PhysX. La versión de CUDA que usa dicha gráfica es superior, soportando las "atom ops", muy útiles para acelerar correctamente gpgpu.

      Así que tanto en juegos como por aceleradora auxiliar para PhysX, la 8800GT cumplía mucho más ahora que la 8800GTS 640. El rendimiento de la 8800GT como superior es incontestable:

      http://wwwendigo.blogspot.com.es/2012/06/sapphire-hd4850-refurbished-compra.html

      En todo ese análisis la diferencia estaba ahí una y otra vez. Yo tuve una 8800GTS 320MB en su momento (y la de 640 MB la probé al salir sobradamente, por cierto 400€ largos de la época, y la 8800GTX…. 600€), al poco pasé a una 8800GT por varias razones, y el rendimiento era más sólido entonces, sin duda alguna. En ningún caso eché de menos nada de las 8800GTS.

      Si años después al probar otra vez 8800GT vs 8800GTS 640 llegué a las mismas conclusiones y con juegos modernos, es que la 8800GT ganó hasta en la prueba del algodón, la de envejecer mejor.

      Las cosas no son lo que parecen, y hay que dejarse los prejuicios a un lado antes de hablar de "inestabilidades" tan alegremente. Además hay formas de cuantificar este tipo de irregularidades y yo las he buscado y no las he encontrado.

      El problema de Ismarub debe ir por otro lado, algún tipo de incompatibilidad o inestabilidad que a ver si sabemos porqué está ahí, pero no es directamente por el músculo de la GTX 660, que yo he visto adecuado (con su nivel de rendimiento, no hay que pedir peras al olmo).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Intención de montar un sli. Dudas.

      Me equivoqué en lo del "ancho de banda" entre GTX 260 y GTX 560 Ti, en el fondo no son muy distintas, aunque la GTX 260 va mucho más sobrada de éste. A eso me refería.

      Siento no poder hacer la corrección de otra forma. :facepalm:

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Intención de montar un sli. Dudas.

      @fjavi:

      Yo lo que me refiero es que las gamas altas siempre son mas estables, están mejor preparadas aunque rendimiento/precio salen bastante peor.

      A mi ya me ocurrio entre g80 y g92 para mi el g80 siempre fue mejor para jugar, aquí creo que ocurre parecido, además que el GK106 no va a ir como el GK104 y este tampoco va a ir como el GK110, son cosas lógicas y por eso venden casi a 1000€ el GK110 mas potente.

      yo desde luego una 580 jamas la cambiaria por una 660, que me digan lo que quieran de que rinden mas y consumen menos, para mi un GK106 es un chip diseñado para una resoluciones normales y sin abusar de filtros, aunque sea otra arquitectura prefiero la gama alta, el GK104 me parece mejor pero tampoco me parece un chip para llamarse x80, el que se puede llamar x80 son GK110,GF110 o GF100, aunque evidentemente un GK104 rinda mas que los GF1x0.

      Para mi es que el GK104 tenia que haberse llamado tal como se llama ahora la 770, eso ya subiendo la categoría un punto, además en el mismo rango de precio.

      saludos

      Pues mira qué cosa tan curiosa, tengo por aquí un par de tarjetas, una G80 (8800 GTS 640) y una G92 (8800GT), que se me dió por probar cómo iban en juegos actuales hace menos de un año, a ver cómo iban cada una. Y ganaba de calle la G92, pero no sólo por fps más altos, sino por estabilidad, por todo. La memoria extra de la GTX no le servía para nda, e incluso haciendo pruebas de las tarejtas como aceleradoras PhysX, me quedaba sin dudarlo con la G92.

      La GTX 660 no rinde más que la GTX 580, si tal parecido, pero no por tener un bus estrecho ni 24 ROPs implica que tenga que ser más lenta. La GTX 560 Ti le pasaba la mano a la mucho más sofisticada GTX 260 216 que tuve antes que ésta, por mucho bus de 448 bits y 40 ROPs que tuviera (y mucho, mucho más ancho de banda), la GTX 660 cuando la probé, dentro de sus limitaciones (por otro lado similares a la GTX 580, en cuento a VRAM), funcionaba más que bien. Y la 8800 GTS vs la 800GT, totalmente sorprendido de que la última fuera tan claramente mejor que la primera (no en fps medios, insisto, en sensaciones de fluidez, mínimos, etc).

      Y ya la GTX 670 ni te cuento. Ya te digo que contra una GTX 780 evidentemente está perdiendo, pero tiene unos mínimos que no tienen mucho que envidiar a la grande. Hay mucho efecto placebo en este mundillo.

      Fuera de algunos problemas puntuales de funcionamiento como los de Ismarub, que a ver si acabamos sabiendo porqué pasan o si se solucionan en la siguiente revisión de drivers, pero ya te digo que lo que le pasa no es la tónica normal. Aunque evidentemente debe ser un problema minoritario pero suficientemente extendido como para tener sus hilos de usuarios afectados por la red.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 13
    • 14
    • 6 / 14