• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. wwwendigo
    3. Mensajes
    W
    • Perfil
    • Siguiendo 0
    • Seguidores 0
    • Temas 0
    • Mensajes 262
    • Mejor valorados 0
    • Controversial 0
    • Grupos 0

    Publicados por wwwendigo

    • RE: NVIDIA Serie GTX 700

      @gamingpy:

      ROCKET - BLOG

      Gracias, ya leí el artículo y está bastante cuidado como siempre que Ismael hace algo del estilo. El único fallo que le encuentro, por buscar, es que falta descripciones completas de la configuración exacta usada en cada juego (que algo ya se intuye, sí, cuando se dice que todo a tope), pero por lo demás un muy buen artículo.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Intención de montar un sli. Dudas.

      @ismarub:

      Lo que me pasa es lo que sufren muchas personas con este juego, incluso con gpus más potentes:

      Sacado del foro oficial de nvidia. La instalación es reciente y me pasa lo mismo que muchos usuarios. Desde ,los 310 el rendimiento de battlefield3 y skyrim se ha visto reducido.

      Yo uso los 314.21 beta porque son los que medio van bien, pero no va igual que con las tarjetas de la competencia. Todos los superiores sufro de microstuttering y lag muy acusado. Incluso probé en su día la hd 7750 del htpc y ajustando parámetros va mucho más suave, que tiene tela. El skyrim es otro que tengo una motaña rusa de fps, cuando con una hd 7870 iba mucho más estable con los mismos mods. incluso la gtx 570 daba mejor el callo. Claro que hablo de drivers de octubre más o menos, cuando no había estos problemas.

      Por eso, viendo incluso un vídeo del battlefield3 con un sli de gtx 660 y apreciar stuttering, pues por eso pregunto a los que hayan montado estos sistemas. Volvía nvidia por su calidad de drivers y me encuentro a 2 juegos que suelo jugar a diario, con problemas. Por eso dudo que con 2 lo vaya a solucionar, ya que los sli requieren de usar drivers más recientes, etc….

      Luego instalo los 306 esos a ver si hay mejora y descartamos problemas de versión de drivers y fallo de nvidia.

      Las soluciones del foro, las he probado, pero sigue sin ir 100% fluido. Me recuerda a cuando tenía el phenom II 965 y una hd 5870, cuando el equipo tendría que ir fino, fino.

      Edit: Instalados los 306.97 y vaya cambio. El battlefield3 perfectamente fluido. Aquí ya noto sensación de suavidad y 60 fps. Comprobado, problema de drivers que empeoran el rendimiento en determinados juegos.

      Me queda comprobar la opción de prerendizado de fotogramas ponerlo a 1. Si no consigo mejorar con nuevos drivers, sólo me queda descartar el sli, porque no me va a servir para mis juegos.

      Pues la verdad es que no lo entiendo, todos los cambios que he visto desde esos 306.97 han sido positivos, si tal te diría que es posible que un OC se vuelva inestable y provoque desde problemas de bloqueos hasta tan sibilinos como problemas de rendimiento por la mayor eficiencia de los últimos drivers.

      Esto es, he visto en los últimos drivers que he tenido que bajar algún MHz la GPU (no mucho, pero algo) y hasta la memoria porque al aumentar el rendimiento y con los juegos más pesados, los OCs anteriores eran tumbados.

      Pero vamos, compensaba de sobra la mejora de rendimientos que he visto en los juegos como Tomb, sniperV2, el propio FarCry 3, etc.

      Yo juego a BF3 esporádicamente en MP, y sinceramente no veo problema alguno. También estoy jugando a Skyrim sin MODs eso sí, pero con las texturas HD, y con filtros personalizados como SSAA 4X para transparencias, más alguna otra mejora via el panel de control (y MSAA 8x), y suave como la seda, clavado en 60 fps.

      Así que debe ser un problema o de OCs que ya no van finos, o si tal algún tipo de conflicto con otro hard que en mi caso no pasa, porque vamos, para mí los últimos drivers son de lo mejor que he visto en la serie GTX600.

      Bueno, ahora me doy cuenta de un detalle, a veces al salir de hibernación falla un componente COM del driver de nvidia, relacionado con el panel pero que se carga de nuevo él solito, algo que no me pasaba antes. Si no carga de nuevo correctamente podría dar problemas en cómo ejecuta los juegos. Es lo máximo que he visto. Pero nada más.

      Mira el tema del OC, y si no… a ver si alguien por esos foros ha encontrado dónde está el conflicto.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Intención de montar un sli. Dudas.

      @ismarub:

      Muy buenas. Pongo este mensaje ya que veo que algunos montáis sli en vuestros equipos.
      Tuve hasta el mes pasado una hd 7950 boost. Mi intención era montar 2, pero al no haber tarjetas de referencia, cambiar de fuente y demás, me salía todo muy caro y con posibles problemas de temperaturas.

      Vendí la hd 7950 y actualmente tengo una evga gtx 660 de referencia de 3gb. Me compré este modelo para no sufrir el problema del bus asimétrico ya que me gusta modear mucho los juegos, etc…..

      la cuestión es que para juegos antiguos, me va mejor la gtx 660(más estables los fps), pero en otros, incluso bajando detalles, van peor como skyrim o battlefield3.

      Mi intención es montar otra a finales de mes, pero no quiero verme en la tesitura de no gustarme el invento y tener que vender todo rápido y perdiendo bastante dinero.

      Lo que me mosquea es que una gtx 570 que tuve movía mucho mejor el skyrim y el battlefield3. Los drivers de nvidia, desde los 310 va horrible en el battlefield3. La sensación es que no va nada suave. Como si vas a 25 fps y con mucho ping. Peor es todavía con los últimos drivers. También tengo problemas de rendimiento, porque esta kepler se viene abajo enseguida, rindiendo mucho menos que la gtx 570 que tuve, como dije antes.

      Todavía juego mucho a este juego y me horroriza que no se solucione el problema de este juego con drivers. Por eso pido consejo sobre hacer un sli de keplers de gama media en un monitor de 1080p. Si voy a tener una motaña rusa de fps, poco escalado con un monitor y seguir teniendo problemas con el battlefield3, pues igual tengo que desechar la idea.

      Saludos y gracias.

      P.D: Mi equipo es un i7 2700k oceado y demás.

      La verdad no sé qué pasa con tu configuración, porque por mi experiencia con una GTX 660 y juegos como el BF3, debería rendir bastante bien, más que suficiente (te hablo de una variante de 2GB, para más inri), siendo realmente un caso muy similar en cuanto a comportamiento a una GTX 670 pero ofreciendo algo así como el 75% del rendimiento o un poco más.

      Esto es, para empezar creo que sabes que obviamente no es tan rápida como una 7950, así que esa parte supongo que la tienes en cuenta al mirar los juegos.

      Lo que no entiendo es porqué tienes esos problemas de estabilidad, parece que no limitados ya al último driver, supongo que has hecho una instalación limpia porque si no te diría que empieces por eso, por si hubiera restos de la 7950 interfiriendo.

      Yo la verdad es que juego a Skryrim, a BF3 y a todo lo que citas al máximo y con fps sólidos como rocas, la GTX 660 no debería ser muy distinta en eso.

      Te diría que estudies bien si no será que está fallando algo distinto con una GTX 660 en solitario, debería ir mejor (no te digo que a 60 fps con BF3 a tope, pero poco menos, y sí desde luego estable, ya te digo que la probé en mapas MP como caspian border y partidas de 64 jugadores). El SLI debería funcionar bien, pero lo primero sería detectar qué problemas tienes y porqué, ya que ni siquiera parece limitado al último driver de nvidia (el 320.18, que por otro lado a mí me va de fábula).

      Fjavi:

      Que el chip GK104 no fue pensado como un top es evidente, pero de ahí a andar diciendo que no es estable o que dan rendimientos "más estables" (aparte de más fps) chips "tops", como dices, hay un trecho.

      Te recomendaría que hablaras de lo que has probado y analizado en directo, porque yo con otro usuario he analizado mi GTX 670 vs una GTX 780, y evidentemente la GTX 780 le pasa la mano por la cara a la GTX 670 en rendimiento, pero curiosamente no se han visto situaciones de "mayor estabilidad", más bien al contrario ya que las diferencias, proporcionalmente hablando, se recortan cuando se mira en vez de los fps medios los fps mínimos, en vez de aumentar.

      Así que de facto la estabilidad, desde un punto de vista puramente analítico es hasta mejor. Otro asunto es que al tener más fps medios y mínimos más altos de forma absoluta la experiencia sea algo mejor, pero eso no es lo que tú estas atribuyendo a los chips performance o de gama inferior como son el GK104 o el GK106.

      Nada mejor que probar las cosas…. y analizarlas numéricamente, para eso de ser un poco objetivos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @ismaeljorda:

      Hola a todos…!

      Me alegra ver a tantos viejos conocidos por aquí...
      Cuando aparecieron las GTX Titan recibí una invitación de Kcuestag para unirme a vosotros y comentar mis experiencias en caso de haber comprado alguna.
      No fue el caso, porque al final esperé a las GTX780 que tengo desde hace unos 15 días y acabo de publicar la comparativa con las GTX 680 en el Blog.

      Al igual que fjavi pienso que se están pasando con los precios.
      En mi opinión, las GTX780 deberían costar unos 500 euros y las TITAN lo que cuestan hoy las 780.

      Espero que os resulte amena la lectura.
      Un abrazo y nos vemos por aquí.

      Ismael 'ROCKET'

      Hombre Rocket, tú por aquí. Ya se te echaba de menos porque si algo recuerdo de tus actividades foreras eran una calidad bastante alta de los análisis que hacías, siempre meticulosos y claros.

      Está bien verte retornar a este mundo, aunque sea en distintos pastos. A ver si encuentro tu blog para ver esa comparativa que dices, que no recuerdo bien la dirección y no sé si la tengo guardada en algún lado.

      De todas formas bienvenido, seguro que aportarás buenos datos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Ayuda con actualización de la Bios

      @boncoe:

      Pues teneis razon, estaba como tu decias Fraciskaner. De todas formas tenia un teclado en el cajon con toma de toda la vida menos mal que lo guardo todo.
      Mi situacion ahora es que si puedo acceder a la bios pero veo que se me ha instalado la version que descargué la 3.10 para mi placa la P67 Pro3 a pesar de que he hecho el Clear Cmos varias veces, raro no?.
      El problema ahora es que cuando reinicio y parece que windows va a cargar me sale le pantalla con las opciones de modo seguro, ultima configuracion conocida, etc. Me dice dice que encuentra errores, le doy a reparar y se me reinicia pero me vuelve a aparecer la pantalla anteriormente de las opciones.
      Ahora mismo estoy instalando windows 7 Pro de cero y a ver que pasa, si me sigue haciendo lo mismo entonces entenderá que la actualizacion 3.10 no es para windows 7 por lo que tendria que buscarme la vida para poder descargarme e instalar la version 2.0 que trae de fabrica la bios.

      Alguna sugerencia? porque la verdad es que me estais hechando una buena mano

      Sobre lo recalcado:

      1.- El clear CMOS lo único que hace es borrar los datos de configuración y parámetros personalizados de la BIOS que tengas en tu caso, y cargar los datos por defecto que trae la BIOS, que además son unos seguros.

      No se borra la BIOS, ni se vuelve "a la anterior", se sigue en la misma pero con valores por defecto en vez de los que hayas puesto tú, evitando así problemas de malas configuraciones. Por supuesto sigue estando la versión 3.10, porque eso es una versión de la BIOS, no esos valores que reseteas con el clear CMOS.

      2.- En vez de reparar lo que tenías que haber hecho es darle a modo seguro. O preguntar antes de ponerte a formatear. En muchos casos tras un cambio de versión de BIOS el sistema necesita re-detectar los dispositivos conectados a placa, para lo cual el modo seguro es una buena opción. Por dios, hasta el modo normal o último arranque bueno es válido para esto, no suele haber ningún problema con la redetección de dispositivos, y si los hay, se arranca en modo seguro y listo.

      Pero en absoluto se necesita reparar el equipo. Posiblemente te podrías haber ahorrado el formateo donde te has metido ya.

      3.- La actualización de la BIOS es para windows 7, para el 8, para el NT para linux o lo que tercie. Raras son las BIOS y sobre todo revisiones más modernas que no son para sistemas operativos con las que funcionaba bien la placa antes. Estas revisiones se usan para arreglar problemas, no provocarlos. Desde luego esta revisión sí debe ser compatible al 100% con windows 7. Si falla algo es por otra razón distinta, pero por una actualización de BIOS, que deje de funcionar win7….. por ¿incompatibilidad?, va a ser que no.

      Menudo lío en que te has metido con una simple actualización de BIOS... :troll:

      publicado en Procesadores
      W
      wwwendigo
    • RE: Duda sobre la vram y bioshock infinite

      @javigt86:

      bueno pues gracias por la explicacion y aclaracion wwwendigo, sobre el tearing del video, lo cierto es que juego con el vsync adaptativo activado en el driver de nvidia, porque como bien dices, si lo activo en el juego me bloquea los fps a 30fps y paso de jugar asi, por lo que el vsync del menu del juego lo tengo en off, y para colmo el triple buffering no funciona mediante el d3doverrider ( o lo mismo soy el unico al que no le va ¬¬ ) , asique visto lo visto, voy a terminar de pasarmelo con la 7970, que por cierto con ésta tambien tengo bajadas de fps con las sombras en ultra, aunque no tan acusado como en la 670, y al menos en la 7970 puedo poner triple buffering mediante el radeon pro. lo cierto es que son algunas partes un tanto rebuscadas, en general va siempre en 60fps, pero esque no le encuentro ningun sentido a que en una zona como la del video donde no hay absolutamente nada en pantalla pegue esas bajadas tan brutales, vamos que es un port de mierda y no le encuentro otra explicacion.

      una ultima pregunta wwwendigo, sobre el problema de los artefactos si realmente fuera la grafica no te parece raro que solo pase con el bioshock y despues de hora o 2 horas de juego? no se supone que si la grafica tiene algun problema saldrian tambien artefactos en unigine, 3dmark u otros juegos? porque ademas es que el bioshock no carga la grafica al 99% constante todo el rato, como si hace el unigine heaven, que benchmark me aconsejas que le pase a la grafica y durante cuanto tiempo para descartar que sea un problema de la grafica? no creo que sea la grafica ya que solo me hace eso en el bioshock y puede ser como tu dices por el smaa injector.

      un saludo 😉

      Sobre lo primero que dices, el problema de esos programas de terceros es que a pesar de que son muy útiles, algunos para activar cosas tan útiles como el triple buffering en apps DX, y otras cosas, sin embargo no podemos asegurar al 100% que no vayan a provocar alguna anomalía por su uso. El problema que dices de las sombras dinámicas en ultra es cierto que no tiene sentido. No lo tiene porque los bajones se aplican en zonas donde uno se espera de todo menos eso (curiosamente en puertas, ambos hemos encontrados esto en puertas), yo hasta el momento seguro que estaba confundiendo las pocas veces que pasa esto por las sombras con las áreas de carga de mapeado donde precisamente ocurre una ralentización similar (pero que desaparece en el tiempo si dejas que acabe de cargar, eso sí, si giras la cámara 180º ya la cascas porque se pone a cargar el área anterior y vuelve a bajar).

      Son ralentizaciones relativamente raras y poco importantes en el desarrollo del juego, pero demuestran que el juego necesitaba un afinado bien fuerte para funcionar en PC, ya sea por las absurdas cargas in game (teniendo como tienen los PCs memoria principal de sobra), ya sea por implementar las sombras dinámicas en el UE3 (opicón "nativa") y puede que interaccionando negativamente con los efectos integrados por el plan Gaming Evolved de AMD.

      Eso de que baje en todas las gráficas el rendimiento, y en situaciones de tan poca apariencia visual, ya sea más con la GTX 670 ya sea menos con la 7970, demuestra el punto de que no está bien implementado esta técnica, ya sea por la combinación o no con otras. Así que tocará u olvidarse del tema y asumir que es como las zonas de carga, un mal menor aceptado con el juego, o combatirlo parcialmente y jugarlo con la 7970, que al fin y al cabo tanto da una como otra, a la hora de la verdad (combates) ambas van sobradamente bien. Me pregunto cuándo un port de consola se hará como dios manda en temas tan importantes y BASICOS como el del Vsync, en vez de incluir mamarrachadas a mayores olvidándose de implementar bien el juego con las ventajas de la plataforma PC (memoria, vsync de 60 Hz o los que toque y de calidad).

      Sobre el tema de corrupción de gráficos, tienes razón en que si no falla en aplicaciones como las que mencionas no parece un defecto de la gráfica, y más cuando además se habla de bioshock que efectivamente no es un caso de juego pesado para las gpus.

      Yo probaría a dejar dos de los tests más pesados, Heaven 4.0 y Valley durante un buen rato en loop para comprobar que no hay problemas, son muy buenos detectando problemas en gráficas. Entre juegos, yo me quedaría sin duda con Metro Last Light, un peso pesado totalmente comparable en cuanto a testeo de estabilidad a los dos tests mencionados, incluso por encima del ya más que buen juego para probar la estabilidad que es Crysis 3, de los mejores entre los recientes.

      Pero como el Metro Last Light, no hay nada, sólo tests artificiales pueden igualarlo. Si no falla con ninguno de estos 3 pilares de la estabilidad, habrá que pensar que sí, que es una anomalía del soft de tu equipo, ya sea por el driver de nvidia, su posible interacción con otros drivers, o temas de parcheos del juego o interacción con programas como el injector, el overrider o el que toque. En ese caso probar a jugar sin ninguno de estos programas detrás estaría bien para descartar que sea el driver, y si sigue fallando, entonces se confirmaría que algo pasa entre bambalinas con el driver, ya sea sólo por él, o por interacciones a saber con qué.

      La verdad es que el fallo es muy raro, se parece un montón a los fallos típicos de una gpu que tiene problemas con el OC o que empieza a fallar, yo he visto cosas similares en otras épocas con gpus susceptibles del problema de las soldaduras cuando empezaban a fallar (antes del fallo total), con esto te lo digo todo.

      Pero igual es lo que dices, a pesar de su aparatosidad, y es un fallo del soft, si aguanta los tests que te he dicho en loop o una partida de muchas horas de Metro, seguro que sí.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre la vram y bioshock infinite

      @javigt86:

      lo que si que no entiendo es que si está a punto de morir porqué salen esos artefactos despues de llevar un buen rato de juego? por lo menos 1 hora o mas.

      pues voy a echar otra partida desactivando las light shafts y a ver que ocurre, cruzare los dedos…

      pd. el fxaa emborrona la imagen, cosa que a mi modo de ver no hace el smaa, mismamente lo comprobé en bioshock infinite y por eso lo he desactivado, prefiero el smaa de calle, puede que el bioshock use la ultima version pero yo sigo viendo un emborronamiento en la imagen que no da el smaa.

      el bioshock lo tengo actualizado y es original (me lo dieron con la 7970) y los driver que tengo son los 320.18 whql.

      Ah, se me olvidaba,sorry por el multipost (tampoco puedo editar¿? el comentario anterior), sobre la gráfica que tengo, una Asus DirectCUII GTX 670, uso también drivers 320.18whql (ahora), aunque el juego me lo pasé con drivers anteriores (314.XX). Supongo que el problema no viene de los nuevos drivers, pero quién sabe. Primero habría que probar sin injector por detrás.

      PD: El FXAA no emborrona la pantalla, para nada, lo único que hace es bajar el contraste en texturas con alto contraste en éstas, nada más. Usa un algoritmo de detección de bordes basado en la diferencia de contraste entre pixeles adyacentes, si una zona no tiene ese alto contraste, la deja exactamente igual, NO la toca. Por tanto no emborrona la imagen, aunque sí puede cambiar contraste y algún tono, y por supuesto quita el aliasing de muchos bordes. Sólo hace interpolación de valores de píxeles cuando detecta "bordes", sean o no reales (cambios de contraste de una textura, p.ej).

      En realidad SMAA funciona de forma muy similar, también se basa en un algoritmo de detección de border por diferencias de las propiedades de píxeles adyacentes, así que un defecto lo puede tener el otro, y viceversa (hay por lo menos tres versiones de FXAA, y creo que otras tantas de SMAA).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre la vram y bioshock infinite

      @javigt86:

      wwwendigo que grafica tienes?

      he grabado un video sobre las bajadas de fps con las sombras en ultra, practicamente 20fps de bajada, una burrada se mire como se mire, en la 7970 tambien ocurre pero menos acusado.

      y sobre lo de los artefactos, he estado jugando 2 horas, todo perfecto, hasta que he cogido el elevador ese que te lleva al aerodromo y entonces han empezado a salir, por lo que mas claro agua, es cosa del juego o de los drivers de nvidia.

      Al principio al ver tu vídeo te diría que tienes algún problema de Vsync, ya que la implementación del mismo en Bioshock es penosa, con él activo existen ciertas escenas, sobre todo las más scriptadas, que tienden a ponerse por sí sólas sobre 30 fps con el vsync integrado en el juego, sin razón alguna ya que no provocan en absoluto más carga en la gráfica.

      Pero por lo que veo en tu video tu gráfica mantiene la carga al máximo, así que por ahí no parece ir el tiro. De todas formas, veo que sigues probando el juego usando un programa de terceros para forzar el SMAA, prueba primero sin ese tipo de programas a ver si tienes los mismos problemas, porque no será la primera vez en que programas de terceros dan problemas.

      De todas formas, por la opción que cambias, y tras rebuscar un poco en el juego (no sé qué escena es la que has escogido, qué capítulo tendría que elegir), he encontrado alguna área aislada de bajadas (bueno, una de momento, también una puerta, en este caso cerrada) donde bajan los fps con la opción de sombras dinámicas al máximo.

      Posiblemente sea un problema de diseño del mapa, esa opción de sombras dinámicas me recuerda enormemente a la que había en Borderlands I y que provocaba que en ciertas áreas el rendimiento del juego bajara a 30 fps o poco más dando igual la gráfica usada, ya que en este caso no había carga, y era un problema de coste de cpu de dicho efecto (cuanto mejor cpu y más oc se usara, menos bajaba la tasa de fps).

      Ambos juegos comparten el UE3, ambos juegos juegan con esa opción de sombras dinámicas posiblemente implementando un efecto no demasiado pulido o experimental en el UE3, y ambos tienen problemas con secciones del mapeado. Aunque la diferencia está en que en Borderlands se ve más justificado que en Bioshock, donde además no parece haber una dependencia de cpu, ni siquiera la carga gráfica parece justificarlo.

      Quizás sea el mismo "viejo efecto experimental" de Borderlands más "afinado" pero que se acaba de estropear con las mil opciones extrañas metidas en el juego respecto a sombreado, bajo el programa Gaming Evolved:

      http://community.amd.com/community/amd-blogs/game/blog/2013/03/26/optimized-for-amd-bioshock-infinite-launches

      Donde se implementan efectos como los de contact hardening shadows o el HDAO, temas que modifican cómo se gestiona el sombreado en un juego aumentando mucho el coste de las sombras, y que puede que se esté aplicando también (así se entiende) sobre un efecto como el de sombras dinámicas con la máxima calidad, que si es el mismo efecto de UE3 que tanto coste tenía en cpu (y en gpu, pero más en lo primero) en Borderlands, lo que menos necesitaba es que pusieran dos efectos extra trabajando sobre éste, aunque haya sido pulido (consumo de cpu normal).

      De todas formas, yo no me rompería la cabeza, estas absurdas bajadas de fps son raras de encontrar, son más habituales las zonas de transferencia/carga de datos de mapeados (solución, ninguna), o el bloqueo a 30 fps si juegas con Vsync en ciertas escenas scriptadas (solución, jugar sin vsync o con él adaptativo).

      Bioshock, por buen juego que sea, no es el mejor ejemplo ni remotamente de un port bien realizado, piensa en esas ridículas cargas en juego y su consumo de memoria central por parte del juego, de unos 600-800 MB, mientras por otro lado se dedica a llenar la VRAM de datos basura sin hacer limpieza alguna. Esa "consolitis" que tiende a poner al juego a 30 fps (por cierto parecido a la velocidad a la que el problema que mencionas tiende, también) cuando le cuadra, o esa necesidad de manipular el archivo de configuración para que el juego use un poco mejor la abundantísima memoria principal para evitar por lo menos algunas de las cargas por streaming del mapeado.

      Es posible que cuando en AMD han implementado esas técnicas de sombreado sobre la que ya existía, lo hicieran sabiendo que no iba a afectarles "demasiado" (dices que también te baja el rendimiento), sea como sea no es más que otro caso de falta total de optimización de cómo se programa o implementan técnicas en un juego. Es ridículo que haya un par de puntos del juego donde la tasa de fps baja sólo por mirar a una puerta ?, que además en muchos casos ni se puede abrir.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre la vram y bioshock infinite

      @javigt86:

      vaya tela, de vez en cuando cuando estoy jugando a bioshock infinite me salen artefactos, exactamente esto es lo que me pasa

      y yo acojonado pensando que la gigabyte 670 estaria muriendo y por lo visto tambien le pasa a mas gente, en los comentarios del video hay uno con una 780 y tambien le pasa.

      vaya tela con el puto juego ¬¬ , segun dicen desactivando las light shafts se soluciona, pero que son las light shafts? algo relativo a la iluminacion?

      Ese problema parece uno de "muerte" de gráfica, no es algo tan simple como una opción gráfica, el error es descomunal, y ya te digo que he jugado muchas ahoras al juego con cero artefactos gráficos leves, para nada algo de ese estilo.

      Ese problema de texturizado y triángulos de colores parpadeantes es típico de gráficas a punto de morir, más que nada. Igual te has pasado con el OC y por eso ves artefactos, pero ya te digo que Bioshock no es ni de lejos el juego más dado a tirar OCs de gráficas, más bien al contrario.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre la vram y bioshock infinite

      @javigt86:

      precisamente por mi caso en concreto pongo en duda los fps que obtienen en las reviews, tengo tanto una 7970 como la gigabyte 670 windforce, y exactamente los mismos settings, todo en ultra y a 1080p y smaa injector en high en ambos casos, y hay algunas zonas, por ejemplo al principio del juego hay una habitacion pequeña con 2 enfermos, pues ahi con la 670 me baja a 42fps, con la 7970 me va a 60, por eso lo digo, porque es un rato extraño cuando supuestamente las nvidia rinden mas en este juego.

      la 7970 está en un i5 2500k a stock y con 8gb ram, la 670 en un 2600k tambien con 8gb, he probado a desactivar el ht en el 2600k entre otras cosas y da lo mismo, ahi me da unas bajadas a 42fps sin venir a cuento, en una habitacion muy pequeña y con apenas 2 tios en pantalla.

      el caso es que buscando por google se puede ver como este juego da bastantes problemas con graficas nvidia, entre otras cosas aconsejan bajar la calidad de las sombras a high y el postprocesado en normal, tambien he probado bajar las sombras de ultra a very high y automaticamente suben los fps de 42 a 60, por lo que el problema debe estar o en el juego o en los drivers de nvidia, porque no es normal que las sombras se chupen 20fps pasando de very high a ultra, y aún con todo en ultra son sombras que dan bastante pena y con unos pixelacos que para que, todo sea dicho.

      por cierto, cuando llevo un rato jugando me empiezan a salir fallos graficos en pantalla, desaparecen edificios en el juego y se puede ver el mapa del juego cortado, una cosa muy rara. tengo los ultimos drivers, 320.18 whql, y la grafica no lleva oc, salvo el que ya tiene por defecto la gigabyte, unos 1110-1124 con boost.

      no me queda otra que jugarlo en la 7970, alguien mas tiene esos errores graficos con graficas nvidia?

      No sé a qué problemas te refieres ni dónde está esa habitación que mencionas, pero te aseguro que lo que pasa en la zona de las casetas de feria es una carga de mapeado.

      También te puedo decir por la parte que me toca que he jugado con el juego a tope, acabándolo, y jugando a 60 fps sin problema alguno. Eso sí, con el juego parcheado y con los últimos drivers, dos puntos que deben ir juntos para evitar los problemas iniciales con las nvidia, debido a esa magnífica planificación del plan Gaming Evolved que hizo que el desarrollador no entregara a nvidia un build definitivo del juego hasta después de su lanzamiento.

      El parche y el driver salieron aproximadamente unos 10 días después del lanzamiento. Por otro lado, no entiendo porqué usas algo como el SMAA injector cuando el juego incorpora ya FXAA, y además parece que una de las versiones avanzadas y últimas del filtro de postproceso, en ese sentido por tanto muy similar a SMAA. Usar soft de terceros para forzar filtros no es una buena idea en muchos casos, desde luego no cuando además el juego incorpora su propia tecnología equivalente de filtrado de postproceso.

      Yo ya te digo, 60 fps clavados con vsync, y me lo he acabado ya dos veces, en modo difícil y modo 1999, y con todo a tope. Eso sí, drivers de los últimos, y por supuesto el parche. Y seguir guías de configuración para el juego, editando el tamaño del pool (pool size) para incrementarlo.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Que procesador comprar ??

      @xoloh:

      Buenas tardes,

      Perdonar, estoy completamente descatalogado y hoy (esta tarde) tengo que comprar un PC.

      Que procesador me recomendais ?? Mejor Intel que AMD ??

      Tengo un presupuesto de 600 euros para el equipo: procesador, placa, grafica, ram, hd, fuente de alimentación y torre. El uso es para procesar fotografías y algún vide en 1080, nada de juegos.

      Una vez que tenga el micro, miraré el resto de componentes, aunque estoy abierto a sugerencias en el resto de componentes …

      PD. Pido disculpas por pedir información antes de empezar a buscar, me pondré hoy mismo. Tengo la necesidad de que esté listo hoy y solo quiero ganar tiempo.

      GRACIAS !!

      Siendo tu presupuesto ése, y que hablas de la torre básica y que tus necesidades van al proceso fotográfico y de vídeo (éste es el más pesado y a tener en cuenta), te recomendaría cpus rápidas con estos temas específicamente, esto es:

      En intel un i7, por ejemplo el 4770, con K o sin ella según hagas OC (el nuevo Haswell).
      En AMD, un FX8320, si no vas a hacer OC el 8350 directamente.

      El intel es el que consume menos de ambos, también es el más caro con diferencia, pero si no vas a usar juegos la gráfica que trae integrada te llega y sobra, lo que por otro lado servirá para reducir costes frente al FX8300, no totalmente.

      Se habla de gastr al final unos 60-70€ más en la opción intel por su consumo y mayor flexibidad FUERA de las tareas que has definido, o ahorrárselos si tienes bien claro que no vas a usar nada de forma intensiva y pesada distinto a lo dicho (donde habría que reevaluar si ambas cpus se ajustan o no a esa tarea de forma eficiente).

      Puedes ver a la cpu intel como una más cara pero más frugal y más todoterreno, y a la AMD como una que te saldrá mejor a coste en el equipo, y quizás mejorar con lo que te sobre otros componentes de la torre.

      publicado en Procesadores
      W
      wwwendigo
    • RE: Intel Core i7 4770K (Haswell)

      @Bm4n:

      Te vamos a llamar "el señor que lleva la contraria" :risitas:

      Intel siempre ha llevado una trayectoria bastante constante, a no ser de ciertos saltos muy relevantes como el "abandono" de NetBurst esto sería lo normal para lo que actualmente demanda el mercado y para el nivel de la competencia. Creo que ahora mismo están más centrados en mejorar otros mercados fuera de las CPUs de escritorio sin integrada y CPUs para entusiastas/OC. Personalmente sigo esperando que abaraten procesadores con más de 4 núcleos, no tengo prisa en cambiar mi Sandy.

      Pues para darte un poco la razón, discrepo de parte de lo que has dicho tras tu entradilla. :troll:

      Realmente intel ha llevado una trayectoria con más saltos de relevancia que rivales en sus arquitecturas de cpus, porque por ejemplo, no sólo pegó un salto muy relevante (de hecho radical) tras abandonar Netburst, es que de hecho la subida al tren de la arquitectura Netburst es un salto equivalente, abandonando a arquitecturas evolutivas como la línea representada por Pentium Pro-Pentium III.

      En las bambalinas de la dominancia de esa arquitectura fallida que fue netburst, intel tuvo otro salto muy relevante, que es la transformación del fallido Pentium III en una cpu mucho más eficiente energéticamente (que ya lo era relativamente), a base de aumento tanto de IPC como de otras técnicas útiles para bajar consumos (evitando por ejemplo subir frecuencias para un rendimiento X), ahí vinieron los Banias, los Yonah y todos esas cpus de transición que reformaron enormemente las tripas de esa arquitectura hasta llegar a la primera cpu Core, conocida como Conroe.

      Hay también saltos importantes con nehalem, o el propio Sandy (no tanto, pero hubo mejoras importantes ahí, no reseteos completos de la arquitectura pero sí replanteos importantes) y supuestamente Haswell, que es una de las primeras cpus que ha aumentado el número de puertos y unidades de ejecución, transformando el ya de por sí diseño "ancho" de los intel en otro que lo es más aún (de los 6 puertos originales de Conroe, mantenidos hasta Ivy, a 8 puertos con Haswell).

      Pero bueno, para que te hagas una idea, en el caso de AMD desde el K7 primigenio, rival y causa de la muerte del PIII en sobremesa como línea de cpus, y por tanto desencadenante de ese gran cambio (de terribles consecuencias) en intel hacia netburst, hasta los K10.5, el diseño a grandes rasgos de sus cpus ha permanecido inalterado:

      3 decoders, y bloques de 6 unidades de ejecución de enteros (3 ALUs y 3 AGUs) más 3 de coma flotante, con el equivalente a 6 de los puertos de intel para ejecución de instrucciones. Han cambiado muchos detalles por el camino, pero si hay una arquitectura con pocos cambios radicales, es justo la de AMD en este caso, donde el esquema general no fue tocado durante más de una decada. Por desgracia parece que AMD ha tomado como decisión una muy parecida a la de intel en los tiempos del K7 vs PIII, y se ha liado la manta a la cabeza con una arquitectura "radical" pero con muchos peros como es Bulldozer y derivados, de la misma forma que fue un salto al vacío el camino de intel con netburst. Para una vez que pega un salto radical AMD, lo hace para estrellarse con un diseño que recuerda preocupantemente a intel con su nerburst.

      El problema de intel, yo creo, es que ha alcanzado un nivel de eficiencia muy grande con cpus anteriores en la ejecución del código, y a pesar de que Haswell ha introducido muchas más mejoras que Ivy, de hecho ha aumentado la capacidad o ancho de ejecución de la cpu, ni más ni menos, el problema está en que los beneficios de rendimiento pocos más son que los obtenidos por intel al pasar de sandy a Ivy, o sea, más bien pocos, para nada radicales.

      Está claro que a partir de un punto como éste mismo, en las cpus intel, la vía para mejorar el rendimiento de una forma radical es meter más cores (o usar instrucciones vectoriales más potentes, léase el propio AVX2, pero esto implica recompilar totalmente los programas existentes para su uso), pero claro, como tú dices ahora mismo tiene otras preocupaciones, en cpus x86 para pcs va sobrada, y ni se molesta en dar más capacidad de cálculo de forma notable porque no le hace falta.

      Es el problema de vivir en un cuasimonopolio, pero es lo que hay con Haswell, una cpu interesante pero sólo para montar equipos nuevos, no para renovar equipos como el tuyo o el mío.

      publicado en Procesadores
      W
      wwwendigo
    • RE: Recomendarme una gráfica para jugar varios años

      @llocousc:

      GTX 670 OC 4GB : http://www.pccomponentes.com/gigabyte_geforce_gtx_670_oc_4gb_gddr5.html

      o

      GTX 770 OC 2GB: http://www.pccomponentes.com/gigabyte_geforce_gtx_770_oc_2gb_gddr5.html

      ya se que la que más FPS dá és la gtx 770 pero en años también durará más o durará más la 670 por los 4gb?

      [PARA RESOLUCIÓN 1920X1080] [1080p] (1080p MAX, o menos ya que no se la pantalla que tiene mi amigo (segun el de 24" osea 1080p).

      Supuestamente la GTX 670 garantizaría mejor su duración en cuanto a rendimiento sostenido en el tiempo, sin embargo la diferencia más que apreciable de rendimiento contra la GTX 770, y el mejor acabado de la última (PCB más complejo, disipador similar o mejor), asegura que la segunda mantenga un rendimiento por encima en toda situación donde no haya problemas con la VRAM.

      Que sinceramente, no creo que se presenten de forma real sin hundir el rendimiento en ambas gráficas. La GTX 770 es mejor tarjeta, si tan interesado estás en los 4 GB yo apuntaría a por una GTX 770 de 4 GB, que deberían salir por un precio poco superir a esa GTX 670 y con un extra de rendimiento que, éste sí, podría garantizar algo mejor que se le sacaría partido a esta gráfica.

      No hay que olvidar que para poder usar tanta VRAM implica necesariamente un mayor consumo de ancho de banda, y en ese sentido la GTX 770, además de la potencia extra en la GPU, tiene memorias más rápidas que son mayor garante de que se usen correctamente, los 2GB completos o muchos más en un futuro hipotético con un modelo de 4 GB.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Intel Core i7 4770K (Haswell)

      @Fassou:

      Documentando el post

      Mmm… esos panfletos de intel hablan en general de Haswell, NO del i7 4770K, éste no tiene vPro, como no lo tiene ninguna cpu anterior K, lo tienen otros modelos (además de que no es algo "nuevo", sí se ha mejorado, que es distinto).

      Se aplica lo mismo al tema de AES,ahí dice bien claro que se ha mejorado el rendimiento de AES-NI, pero eso es básicamente un fleco, las instrucciones incorporadas para acelerar AES ya vienen de antes, esto es una mejora, como la misma que tiene del IPC.

      Sobre el OC indepdendiente por core, no dice nada esta documentación, se habla sólo de la integración del regulador de voltaje en la cpu, que le permite cambiar de éste y en distintas partes de la cpu mucho más rápido. Esto teóricamente mejora las posibilidades del OC, pero Haswell tiene límites muy cercanos de OC a Ivy, aún no se han visto casos de 5 GHz como sí se vió en su momento en las reviews de Sandy.

      Del OC por core, repito que no se habla, excepto que se entienda como tal configurar el turbo boost, pero eso es otro tema, y ya viene de antes.

      La verdad es que a pesar de las novedades, esta cpu se queda un poco corta para quien esperara un cambio radical respecto a Ivy, o incluso Sandy. Intel se está tomando con mucha, mucha calma su trabajo. Vale que el IPC es difícil mejorarlo a partir de un punto, pero podría integrar más cores en la gama principal que representa LGA 1150, pero se ve que la falta de presión hace que saque productos mejorados, pero continuistas con lo anterior.

      publicado en Procesadores
      W
      wwwendigo
    • RE: Intel Core i7 4770K (Haswell)

      @Fassou:

      Las reviews parecen indicar que es un producto que mejora algunas cosas, pero no es para tanto.

      Mejor gráfica integrada, mejoras para edición de video, compresión de ficheros y cifrados AES, la incorporación del vPro, y en temas de OC, la posibilidad ( usando la placa adecuada ) de subir cada núcleo por separado.

      Salu2!

      Emmm… creo que la mejora más importante fuera de aumentar ligeramente el IPC es la incorporación de AVX2 más la mejora de rendimeinto general en AVX gracias al aumento de buses de comunicación con las cachés.

      En OC, realmente no hay novedad, los límites son muy parecidos a los ya existente con Ivy en frecuencias, lo cual lo coloca por debajo de Sandy en potencial de OC, y quita parte de la ganancia de rendimiento por su mejor IPC, en ese sentido quita el interés en usuarios que no tengan como mínimo un lynnfield para actualizar, y posiblemente de forma sensata sería actualizar desde cpus más antiguas o lentas.

      Lo de vPro juraría que viene desde hace tiempo, pero justo en las cpus K éste no funciona (deshabilitado), y con haswell que yo sepa sigue exactamente igual, o sea, sin él. Idem con el tema de instrucciones para acelerar AES, ya estaban en cpus anteriores, de hecho el rendimiento es mejor pero en proporción similar a todas las mejoras que se ven en otros programas (mejor IPC).

      Lo del OC distinto por core no sé a qué te refieres, sería interesante algún link para ver sobre el tema.

      Realmente la mayoría de mejoras más fuertes están en productos distintos a las cpus K, en las de portátiles y las de escritorio en formato BGA como las cpus "R" (de momento confirmada una).

      El tema de la configuración gráfica "Iris" es muy interesante, pero sobre todo por la "Iris Pro", con la gpu más potente y la inclusión de los 128 MB de eDRAM en el mismo encapsulado, dando rendimientos en las cpus de portátiles muy cercanos a los de una GT 650M, lo cual es muy interesante ya que es un nuevo hito en integradas.

      Cito lo de Iris Pro porque además de los gráficos, está el tema de que la eDRAM se usará además como un nuevo nivel de caché para la cpu, una especie de L4 que funcionaría como una victim caché, que podría dar unos picos de rendimiento en ciertos tipos de programas con grandes sets de datos pero cierta localidad, muy interesante (dicho desde el lado de la cpu).

      Pena que el tema de la eDRAM esté limitado a cpus que no son las típicas de escritorio, ya que podría dar un empujoncito extra del rendimiento precisamente a las cpus que más potencia tienen.

      publicado en Procesadores
      W
      wwwendigo
    • RE: Duda sobre la vram y bioshock infinite

      @javigt86:

      gracias por la aclaracion wwwendigo 😉 ya me parecia raro que usará la totalidad de la vram.

      otra cosa que he comprado es que con la 7970 en una misma zona del juego me va a 5-10fps más que con la 670 con boost 1124 que mete por defecto, esto con detalles al maximo, y segurisimo es por el post-procesado en alternativo, al activarlo en la 670 pega una bajada de casi 10fps, mientras la 7970 ni se inmuta, y la tengo a 925mhz, todo de stock, curioso cuanto menos.

      aun asi el juego en ocasiones tiene unas bajadas de fps brutales, como por ejemplo al inicio del juego cuando llegas a la atraccion de feria.

      no se si solo me pasara a mi o a alguien mas le pasa :s

      un saludo

      Pues ya es raro porque con los drivers sacados tras la release del juego, las nvidia van realmente bien en este juego:

      http://www.techspot.com/review/655-bioshock-infinite-performance/page2.html

      Vamos, que se cambió la situación de ser más lentas a ligeramente más rápidas que con las AMD, incluido el uso del postproceso alternativo. Yo al juego no le he notado ninguna bajada de rendimiento por esto (juego a 60 fps), sólo pasando benchs se ve la diferencia entre activar o no calidades extra (por escupir fps a lo loco sin vsync).

      Sobre lo que dices, justo el momento que dices, la llegada a las casetas de feria, es una zona de transición de mapas, si te fijas en la luz de estado de disco, al llegar ahí verás que parpadea bastante justo cuando se ralentiza, una vez cargado va mejor, pero si sólo giras y miras para atrás, verás que vuelve a ralentizarse y a brillar la luz (carga de datos del mapeado previo).

      Esto es defecto del animal, no hay nada que hacerle. El juego es tan buen port de PC, que consume a lo tonto (aunque da igual, pero bueno, es un detalle un poco guarro) la VRAM sin necesidad, aunque no dé problemas en esto, y después el juego …. ocupa en memoria principal unos 500-600 MB.

      Bien podrían usar memoria principal para precargar áreas, será que los PCs no tienen memoria precisamente, pero no, usa esta técnica de streaming de datos del mapeado según llegas a ciertas zonas de transición.

      Una pena, porque si hay algo que enguarra el rendimiento excelente del juego, son estas transiciones, que nada tienen que ver con la potencia de la gpu, o de la cpu, etc, sino al diseño del juego y uso de recursos (pasa en cualquier configuración gráfica).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Duda sobre la vram y bioshock infinite

      @javigt86:

      buenas, vereis tengo una gigabyte 670 windforce, y jugando a bioshock infinite de vez en cuando al salir del juego me sale una ventana en el windows 7 informando de que se ha reducido el rendimiento, esto con el aero activado, puede ser debido a los 2gb de vram de la grafica que se queda sin vram? yo diria que si, porque sino no saldria esa ventana diciendo que cambie la combinacion de colores a basico (claro sinitoma de falta de vram)

      monitorizando el uso de vram en el juego he llegado a ver picos de hasta 2gb, ya se que esos programas miden mal, pero ahi está el dato, en otros juegos el consumo está en 1 , 1,3gb.

      juego a 1080p, todo en ultra y sin msaa ( uso siempre smaa injector )

      que podria ser lo que hace que se agote toda la vram?

      Olvídate, el juego cachea texturas a saco sin ton ni son, pero no usa esa VRAM ni de broma, de sobra comprobado, y con una inspección ocular al entorno queda claro (a pesar del buen nivel artístico, las texturas en muchos elementos son de baja resolución y calidad).

      Ese tipo de cuadros que dices que pone Windows no sólo pasa con casos como el que dices, también puede llegar a pasar con Metro Last Light, juego que no pasa del GB de VRAM, así que no tiene nada que ver con el consumo de VRAM, porque el Metro ni se acerca a los límiteas de la gráfica (con el Aero incluido y todo lo demás, me refiero, 1 GB y para).

      Hay juegos que tienen políticas de usar la VRAM disponible necesaria para renderizar cada imagen (Metro), y otros que precargan datos en ésta, o incluso simplemente no eliminan las texturas ya usadas en VRAM pero no visibles en las imágenes actuales, en un intento de evitar el tener que cargar esas texturas en un futuro frame y así ahorrarse la transferencia de datos.

      Pero vamos, que no tiene gran importancia. He llegado a la conclusión que casi todos los juegos que superan los 1,5 GB de VRAM en uso, es por políticas de este estilo (o sea, que realmente no necesitan esta VRAM, aunque la usen), y sólo quizás excepciones como Crysis 3, que sí parece usar, necesitar realmente la VRAM que indica Afterburner, serían casos justificables. Bueno, esto y Tomb Raider en parte, con sus opciones comememoria como TressFX, que si usas SSAA además, suelen llevar el tema a la necesidad de 2 GB… o más.

      Sobre el juego hay guías de tweaks para PC:

      http://segmentnext.com/2013/04/03/bioshock-infinite-tweaks-2/

      Y en concreto éste que parece tener una relación:

      There are plenty of options that can be altered in “XEngine.ini”., For instance, following are some changes that can be made to boost performance:

      In Texture size section, Look for Poolsize. The default value is set to 400. Increasing it to 1024 can give you a performance boost. You can try out your own values, and if you get better results, share with us in the comments below.

      Read more: http://segmentnext.com/2013/04/03/bioshock-infinite-tweaks-2/#ixzz2UyDbHVZ9

      Yo he llegado a probarlo, y aunque pueda parecer contraproducente viendo los consumos de VRAM en la gráfica por defecto, suele mejorar el cómo va este juego, y para nada aumenta el consumo de VRAM, sino lo baja.

      Posiblemente define el tamaño del "pool" en la memoria principal de texturas a usar en el futuro, no en VRAM, y eso indirectamente puede que rebaje el uso de VRAM (evitando precargas de texturas), pero vamos, que en ambos casos no hay problema.

      El problema que tiene el juego es en cómo va cargando secciones de mapeado y descartando otras de memoria, eso se nota muy claramente en las áreas de transición donde los fps bajan, hay cierto stuttering, y de pronto todo va bien, giras sobre ti mismo y miras o avanzas al lugar del que viene y… vuelve a pasar lo mismo (con accesos a disco).

      El parámetro de pool size puede aliviar un poco esto, pero no hasta el punto de arreglar el tema en las áreas de transición. Sobre el consumo de VRAM del juego ni caso, no los usa realmente. Otro asunto lo del aviso de windows al salir, en muchos casos se arreglan ese tipo de cosas con el siguiente parcheo del juego.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @Alcor:

      Siento si se a tomado las mayúsculas como un grito pues no era la intención, si no la de remarcar sobre que iba mi comentario, que no era otra cosa que sobre el chip.

      En cuanto a wendigo, lee bien otra vez mi enfado con Nvidia, es sobre el chip, según veo en todos los análisis lo dicen ellos mismos que ya la han tenido en las manos, parece que hayan encastado el mismo chip GK104 de la 680 y lo hayan puesto en ese pcb, puede ser o no para ti un refrito, para mi lo sigue siendo puesto que lo principal, el chip, es el mismo según los propios slides de Nvidia.
      Lo de fanboy lo dije porque estoy harto, hasta las narices que cuando no estás de acuerdo con los comentarios de la gente enseguida te saquen, claro si lo hace el otro no es lo mismo, y tú aprovechas cualquier comentario para meter a AMD por el medio, si me cabrean los refritos, imagínate lo que me puede gustar una 7970 ghz edition, nada de nada, es un refrito mayor aún.
      En cuanto al tono, fíjate si lo habré entendido mal, que hasta el moderador se a dado cuenta con el tono que has empleado.
      Pero tranquilo que no me volverás a ver decir nada tuyo.

      Un saludo.

      P.D. Ahhh y lo del otro foro te lo guardas para tí mismo, el porque me fuí o no, es un tema que no te importa ni a ti ni a nadie más.

      Pues venga. dejemos discusiones estériles, pero no te inventes historias, lo de fanboy tú lo has metido porque te dió la gana, yo he metido el UNICO buen ejemplo de refrito de esta generación en ese tipo de gama, un producto que por cierto, digas lo que digas, yo no he ido por ahí llamando refrito por foros, aunque me parezca que lo es, una simple pasada de tuerca del modelo original. Porque además creo que yo y tú sabemos las connotaciones despectivas que tienen a estas alturas lo de llamar refrito a un modelo "nuevo", sea o no lo sea.

      Te lo repito, el lenguaje es para COMUNICARSE, y por tanto usa la terminología correctamente, REFRITO es un mismo producto con distinta pegatinas y nombre, ni más ni menos. Y ESTO no lo es.

      Sobre foros y demás, mira, lo que es público es tanto mi asunto como tuyo, tanto es mi asunto tus problemas con otros foros, como el que enmierdes diciendo no se qué tonterías sobre mí y AMD porque no le lama botas a la marca ((lo cual me hace gracia porque yo he sido, posiblemente desde mucho antes de que tú tuvieras nada de AMD, cliente y defensor suyo, pero SOLO cuando sus productos merecían la pena, pero claro, cuando las cosas cambian y por tanto se van los apoyos, muy rápido se va a la gente a llamar "fanboy" a alquien). Si no quieres que te hablen de otros foros, entonces empieza tú a no hablar de la "famita" puesta por otros lares a mi persona, ¿vale?

      Yo soy ese "fanboy" que se ganó insultos y faltas de respeto cuando (precisamente en el foro mencionado), cogiendo los esquemas de la arquitectura Bulldozer, avisó EXACTAMENTE de su bajo rendimiento final y de problemas arquitectónicos como la competencia entre cores del mismo móudlo por recursos. Por cierto que unos pocos, pero representativos, se acordaron de pedir disculpas públicas cuando esto se vió así. Y cuando yo no estaba en ese foro ya, además.

      Todos esos problemas que a posteriori en muchos foros se empezaron a tomar en serio, fueron avisados por mí mucho antes. Así que un poco de respeto, porque todo lo que he dicho de AMD alguna vez es con base, no por fanboyismos, si la marca no da un pie con bola no es mi problema. De la misma manera que en su momento masacré a intel por su arquitectura P4, algo que pocos recuerdan ya, pero hice y con la misma intensidad.

      Sobre las gráficas, siempre he dicho que prefiero nvidia por sus drivers, pero por eso no voy a aguantar que me tilden de nada, el tema de drivers es algo que aún hoy sigue teniendo una importancia vital, y yo no soy de los que le gustan que las cosas fallen o no vayan correctamente según el juego usado. Así que sí, uso nvidia, porque no quiero saber nada de MS, ni de falta de soporte en juegos, ni historias del estilo, que hay muchas más y deberías conocerlas. Si AMD no me da más por menos, y cuando digo eso lo digo para ganar algo más que un 10% o 20€ de ahorro, no compro sus productos (para mí, para otros he montado sobradamente AMD).

      O sea que antes de hacer lo que has hecho, que es atacar "personalmente" a alguien porque NO TE gusta que haya puesto en evidencia tus palabras a base de evidencias (pero sin enmierdarte a ti, ni llamarte fanboy, piense lo que piense yo en este tema, y puedes comprobarlo que así fue), piénsatelo un poco.

      Por mí el asunto está aparcado, pero revisa quién va a lo personal y quién no en la discusión.

      Saludos.

      PD: Reconozco el error de haber usado más de lo debido el recurso de las mayúsculas, pues como bien se ve en el texto anterior, suelo usarlo de forma muy limitada para recalcar la importancia de un término, como una especia de sustitutivo pobre pero rápido al uso de negrita.

      Pero al usarlo tan extensivamente como lo hice en el post de respuesta a lo de "refrito", puede dar la sensación de continuos tonos elevados, cuando en realidad la intención era un "negrita" rápido. Donde normalmente cuela como tal en este caso es más que posible que no se entendiera así.

      Así que por esa parte reconozco que, por error mío dada su frecuencia, sí me he equivocado. Aunque lo que sigo suscribiendo es todo el sarcasmo usado en el texto al comentar las imágenes, pero con el tono pretendido, que es sin tanta mayúscula.

      Error mío y del que no me he dado ni cuenta, hasta ahora.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @Fassou:

      Siempre es interesate poder leer un post en el que se documenta con datos la argumentación, pero tendrás que rebajar un poco el tono del texto, ya que es desproporcionado como respuesta al comentario realizado.

      En un foro se debate, y nadie tiene que pedir permiso a otro para opinar, ni para tener su propio baremo sobre lo que puede considerar un "refrito".

      Salu2!

      Si se miente y se dice algo como "sólo le cambian la carcasa y las frecuencias", que cada cuál apechuge con las críticas cosechadas.

      Y lo que vulgarmente se conoce como refrito está bastante bien definido, no es algo que tú o yo podamos definir arbitrariamente, de la misma forma que un perro es un perro, y no un gato porque a ti te guste más llamarle "gato" al perro.

      El lenguaje está ahí para informar, no para desinformar. Y no, decir que la GTX 770 es una carcasa y unas frecuencias distintas, no es informar, es desinformar. Y si la gente se engaña porque no está informada, estaría bien investigar antes de soltar perlas como ésa.

      Yo jamás he visto en foros decir que una 7970 GHz es un refrito, y me parece bien aunque se salve de esa clasificación estrictamente por los pelos, pero si no veo esa crítica por ahí contra este modelo, ya me parece de escándalo ver esa cantinela con una tarjeta con un diseño 100% novedoso, en todos los puntos. Claro, usando el GK104, de la misma forma que se usan los Tahiti para la 7990, es el mismo caso. Modelos nuevos con chips similares.

      O las HD8000 versión OEM, que éso es ya un refrito pero estrictamente hablando, y ni pío de críticas (y por ahí las montan en equipos de grandes distribuidores).

      ALcor:

      Yo me dirigo a ti como yo considere adecuado, no como tú me ordenes, y menos cuando tú te dedicas a llamar a nadie fanboy o A GRITARR!!!!!, cosa que yo a ti no te he hecho en ningún momento, así que si quieres "respeto", empieza por ti mismo, mis palabras han sido rotundas pero he guardado más las formas, si no te gusta el sarcasmo ya es un problema personal. Y considero más que adecuado darte un repaso informativo a base de fotos sobre la mentira que has dicho, porque eso es lo que has hecho, has mentido. A sabiendas o no, pero lo has hecho.

      ¿Te tengo que citar para que veas porqué has dicho que es la misma tarjeta? ¿te suenan las palabras "carcasa" y "frecuencias"?

      A ti lo que te ha pasado es que el repaso a base de evidencias de imágenes te ha dolido, porque has soltado la perla y te has quedado tan fresco. Que yo sepa no te he llamado ni fanboy, ni tonto, ni nada parecido, así que los gritos, las repeticiones de la misma cosa con marúsculas (el chip, el chip, ¿qué pasa con el chip?, ¿qué pasa que ahora todas las gráficas que lleven un mismo chip son "refritos? Are you serious? venga hombre).

      Tú te has ido de un lado porque estabas harto de la "falta de libertad de expresión", pues bien, ESTO es lo que hay cuando se dicen cosas así, que igual si lo que has dicho NO tiene base te da un repaso con evidencias de que las has colado, por ignorancia o por lo que sea.

      Ya está bien de la misma cantinela, no redefinas términos, un refrito es la misma tarjeta, mismo PCB, misma memoria y disipadores, y hasta debería tener mismas frecuencias con una etiqueta DISTINTA colocada encima. El mismo producto, con distinto nombre, no una tarjeta "parecida" porque lleve el mismo chip y no comparta después NADA de lo demás.

      PUNTO. Una 9800 GT sí es un refrito de la 8800 GT. Una 6770 sí es un refrito de la 5700, pero decir que es un refrito la GTX 770 es querer reirse de la gente.

      Te voy a informar de un asunto, si un mismo chip es lo que te sirve a ti para llamar refrito a algo, entonces empieza a decir ese tipo de cosas con las GHz, supongo que no incluyes tarjetas con chips capados, pero también las 7990 llevan ese mismo chip que la 7970, así que también refrito. De todas formas te estás inventando el término refrito, tiene un uso, adáptate a él o invéntate un nuevo nombre para algo que no es un refrito y tú lo estás llamando como tal. Porque si no acabaríamos llamando refrito a una FireGL pro S9000 o S10000 porque llevan el mismo chip que una 7950, Y NO tienen nada que ver.

      Por cierto, en vez de tratar de enmierdar con técnicas bajas estilo "y tú más" y "fanboy", estaría bien que admitieras cuando metes la pata, y si no quieres el silencio puede ser mejor que dedicarte a decir que alguien echa pestes sobre tal o cual marca cuando tú a mí no me has visto en este hilo hacer eso que dices, de hecho ni en este foro ni en otros donde posteo actualmente. Me parece muy bien que tengas tal o cual gráfica, en realidad me da lo mismo, te estoy criticando por un tema claro y meridiano, que estás poniendo nombrecitos injustos como muchas veces se ha visto en gente bastante parcial, y que ya está bien de tanto repetir los mismos cuentos que tan tradicionales son por otros lares.

      Así que ojito, yo no te he faltado, no te gusta que te dejen con el culo al aire, vale, pero para la próxima, no te inventes la realidad y entonces no te ganarás esas críticas. La GTX 770 no es un refrito, la GTX 770 no es una carcasa distinta para la GTX 680 y frecuencias subidas, y "listo". NO lo es y deberías saber que tengo razón.

      Punto pelota.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: NVIDIA Serie GTX 700

      @Alcor:

      Esto es un refrito en toda regla al que le cambiaron la carcasa y le subieron velocidades según veo los análisis en varias webs, el chip es el mismo, todas para ellos.

      Un saludo.

      Ya, le cambiaron "sólo la carcasa" y subieron velocidades, claro, claro. Me gustan las opiniones fundadas, veamos qué hay de cierto en éstas.

      ESTO:

      Es un refrito de ESTO:

      Clarísimamente vamos, es que nota a leguas, son IGUALES.

      Más datos de la fritura:

      ESTO:

      Es lo mismo que ESTO:

      Vamos, la mismita alimentación. Es la misma tarjeta.

      ESTO también es LO MISMO:

      QUE ESTO:

      El mismito regulador de voltaje, vamos.

      También ESTO es lo mismo (refrito, remarcado de un producto):

      Que ESTO:

      Vamos, lo mismito, misma memoria, misma marca, misma velocidad, todo igual igualito.

      Porque ESTO es un refrito, y santas pascuas. ¿Quieres saber lo que de verdad es un refrito, de verdad de la buena y la gente se calló como putas cuando salió a pesar de serlo?.

      7970:

      Refrito, o remarcado con el nombre de "7970 GHz edition":

      Esto SI es un refrito, el remarcado bajo un nuevo nombre de la misma tarjeta con todos los pelos y señales que le caracterizaba. E incluso es dudosa la clasificación como "refrito" si se alteran velocidades y voltajes, pero en el caso de diseños idénticos, es aceptable, como lo es en el caso de la GHz edition.

      A ver si se es menos cansino y se deja de llamar a cualquier producto de nvidia "refrito" y se empieza a aplicar, ya que veo tan exquisita a la gente con los nombres, con propiedad en el bando de AMD, porque VAYA TELA el que exista una gráfica como la 7970 GHz, que por cierto subió el precio respecto a la 7970 siendo un remarcado, y se venga la gente a quejar de una nueva tarjeta basada en el mismo chip que la GTX 680, pero SOLO ESO, porque…. ya ni idea. ¿Por tocar narices?

      Porque mira que no hay evidencias de sobra de que no tiene nada que ver una tarjeta con la otra. Si hace falta se ponen fotitos del disipador también, se habla del voltaje y frecuencias distintas usadas, o del Boost 2.0 en vez del 1.0 de la GTX 680. Detallitos, pero que apartan tan claramente de un remarcado a la GTX 770 que insistir con el mismo cuento ya, hasta ofende.

      Si el PCB de la GTX 770 es un derivado del usado con las Titan por dios, adaptado para el GK104 .

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • 1 / 1