• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. wwwendigo
    3. Mensajes
    W
    • Perfil
    • Siguiendo 0
    • Seguidores 0
    • Temas 0
    • Mensajes 262
    • Mejor valorados 0
    • Controversial 0
    • Grupos 0

    Publicados por wwwendigo

    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Piratilla2007:

      Dicen los de Nvidia que con Tomb raider,sus Gpu rinden peor que la AMD pq el codigo del juego les llego demasiado tarde….Seguramente que con futuros drivers,el rendimiento sera mucho mejor;

      HardGame2 : Noticia : Nvidia se pronuncia sobre los problemas de rendimiento de sus tarjetas con Tomb Raider en PC

      Felicidades Elpe,estas en el segundo puesto de 3DMARK,orgasmo total??jejeje

      Por cierto,vi que tienes 4 Titan???Madre mia,que la mujer te deja…Lo veo venir jejejej.

      Un saludo.

      A eso me refería exactamente. A eso y a que con todo el cachondeo funcionaba mejor una Build anterior del juego que la final, que tiene bemoles (igual es porque las novedades tecnológicas no estaban implmentadas en la final, o igual no ¬¬).

      Y sí, segundo sin hacer las machadas de KingPin, que lo siento pero con gráficas regaladas y con LN2 y todo el material técnico y asesores del mundo, mods a medida de las gráficas, etc, lo siento pero en realidad no está compitiendo justamente por un resultado.

      Así cualquiera bate récords. Pero bueno, unos cardan la lana y otros se llevan la fama.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @PGS:

      Nvidia y AMD han hecho trampas siempre que han podido, a mi no me vas a vender la moto a estas alturas de que AMD está haciendo lo nunca visto. Por cierto, no he usado ningún tono en especial, así que mejor te guardas tú el tonito a superioridad que te gastas.

      Las optimizaciones y desoptimizaciones son una guarrada las haga quien las haga, pero cuando se empezó con el "meant to be played" muchos ya advertimos que la cosa acabaría en esto y mucha gente lo negó e incluso dijo que eso era bueno para el usuario que así sus tarjetas irían mejor y que la culpa era de ATI por no hacer lo mismo…pues hala aquí tenemos la guerra de maletines y los usuarios "superbeneficiados".

      Lo que faltaba por leer. Perdona, pero ell "tonito de superioridad" es el que tú has empezado a usar a la hora de decir "vuestra empresa favorita" haciendo lo que es una acusación poco velada que no viene a cuento (que yo sepa, tú eres el primero que menciona a los demás y con esa acusación), así que primero respeta, no vengas con esos "tonitos" y después si tal exige tú a los demás que no te vengan con tonitos también.

      Y por cierto, con el plan TWIMTBP JAMAS se ha visto que un juego en AMD rinda un 50% menos en éstas que en nvidia con tarjetas similares. Y si quieres ejemplo de las guarradas que ha llegado a hacer AMD coges y te miras los rendimientos con Dirt Showdown, las "optimizaciones" activadas y qué pasa con el rendimiento.

      AMD nunca ha necesitado de especial ayuda para tener problemas de rendimiento, de hecho los ha tenido con programas Gaming Evolved como es Dragon Age 2, y algún caso más, que es de los juegos que de lejos peor les ha ido a las gráficas GCN vs Kepler.

      Ahora me dirás que eso era un "boicot de nvidia". Te insisto que nvidia, su "especialidad" en estos temas más que hundir el rendimiento rival ha sido la de implementar características propietarias, como PhysX, AA "exclusivo" o el uso de técnicas que le vengan bien.

      Por supuesto que han habido casos de "boicot", pero son los menos frente a optimizaciones exclusivas. Y no sé a qué viene un simplón "y tú más" cuando estamos hablando de la situación actual provocada por AMD en juegos actuales, no de lo que hicieron panchito y benito hace 2 días.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @MaLDo:

      Ese fallo de ELP3 y que tienen otros usuarios con resoluciones muy grandes creo que es muy posterior al calculo de la posición del pelo. Cuando todos los cálculos acaban, hay unos pases de postproceso para suavizar el pelo aplicando antialias a cada uno. Ese postproceso es el que creo que no está bien dimensionado para resoluciones altas y por eso se convierte en borrón.

      Pues qué quieres que te diga, me parece demasiado emborronado por una mala aplicación de un postproceso que seguramente se limite a aplicar el FXAA o poco más. A mí lo que me extraña es la simetría que tiene el borrón final, y que no afecta en absoluto a las puntas del pelo, lo cual hace que tenga dudas sobre el tema del postproceso o escalado del pelo (al fin y al cabo, el supersampling consiste en un upsampling y posterior downsampling de la imagen). Si fuera así tendría que estar emborronado todo el pelo, no casi todo menos las puntas.

      Además que los borrones cuadrarían bastante bien en sus tonos con lo que sería la iluminación a aplicar al cabello.

      Pero sea lo que sea, es cosa de cómo se ha hecho el tema. Fina fina, "hoyga".

      PD: Por cierto, curioso que la escena del bench integrado del juego, que ocurre al principio nada más salir de la cueva, en bench me da con ultimate unos 41-42 fps, pero en la escena de juego real anda sobre 60-70 fps con facilidad.

      Será temas de postproceso, seguro… ¬¬

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @ELP3:

      Vamos a ver..esto vá especialmente para maldo o wendi,ya que sabeis mas de esto que el resto de los mortales..

      En Nvidia,al menos mi caso con TITAN,al poco de empezar la partida,ya no se puede jugar con el pelo "fregona" y el Super Sampling activado pues ocurre esto:

      El pelo deja de ser pelo y se convierte en una mancha borrosa que vá y viene…ojito también a la Vram consumida según afterburner a mi resolución y 4 SSAA,como sea mas o menos verdad...a ver quien tiene una gráfica con mas de 4GB de Vram y además con la potencia necesaria para moverlo...AMD desde luego no..

      Sin embargo con FXAA,el pelo "fregona" se vé "normal"

      Sabeis si esto es solo con Nvidia,o sé produce también con AMD,algún tipo de incompatibilidad?

      En ambos casos el resto de opciones están la máximo.

      Salu2.

      A ver, ya he tenido mi primera toma de contacto sobre el rendimiento del juego con sus distintas opciones, y eso que nos muestras es muy anómalo, para empezar:

      Supongo que activas el SSAA dentro del propio juego, por alguna razón extraña éste no me funciona con los 314.14 activándolo desde el menú de configuración del lanzador del juego.

      Una vez activado el SSAA 4x, observo una anomalía muy fuerte y "similar" a la tuya en que afecta al pelo, pero de una manera distinta. Como tengo una kepler "pequeña" las diferencias pueden ser explicadas por las diferencias entre modelos, empezando por tener 2 GB de VRAM. En mi caso con 2x SSAA y todo en ultimate el test se comporta normalmente consumiendo unos 1,8GB de VRAM, pero al activar 4x SSAA, además de que el rendimiento se hunde mucho más de lo esperable, se pasa a consumir unos 1,5GB de VRAM, claramente imposible con estas codiciones. O sea, que no es que agote la memoria VRAM sólamente, es que además hace algo muy raro para de pronto dejar un hueco de más de 512 MB de VRAM sin usar, dañando más al rendimiento.

      En tu caso la VRAM no es un problema, pero sin embargo tienes ese problema de emborronado, yo con el tema del 4xSSAA también he visto un artefacto gráfico con el pelo, y es que parpadeaba en tonos amarillentos el cabello de Lara cada poco (¿a punto de entrar en modo superguerrero?).

      Son fallos extrañísimos, así que diré sólo qué se supone que deberían estar haciendo en ese momento las gráficas respecto al cabello:

      Entrar en modo GPGPU, cargar los datos pertinentes y correr los computing shaders de simulación de cabellos (listas linkadas), calcular su posición en el momento dado de simulación del juego y guardar esos datos o en forma de una malla 3D, o incluso pasar de esto y calcular ya en este modo la proyección del cabello en la imagen 2D (e información de sombreado), y pasar a través de un buffer la información del cabello al modo 3D de la gráfica (vuelta a entrar en este modo) para componer la imagen final.

      Sea como sea, hay un momento donde se renderiza el cabello, y que se guarda en forma de textura/buffer para uso posterior. El parpadeo es una anomalía muy importante, pero más es el "emborronado", que quizás apoya más a un posible uso de un buffer de imagen de los cabellos. Quizás se calcula y "renderiza" el cabello sin texturizar, y en mi caso debido a la falta de VRAM ocurre que simplemente se muestra a veces sin renderizar totalmente éste, con un color "plano" del buffer pasado desde el modo GPGPU (es posible que haya otros buffers para información adicional como info de brillos, etc), y en tu caso con VRAM de sobra el problema se transforma en algún problema bastante grave de cómo se implementa la imagen final renderizada del cabello al resto de la imagen (parece que han aplicado algún tipo de reescalado de esa imagen prerenderizada de baja calidad para el cálculo de la imagen a la resolución interna del SSAA, y después sufre un downsampling que acaba de joder la marrana).

      No tengo ni idea de si pasa en las gráficas AMD, pero parece un problema de cómo se gestionan los pasos de renderizado del cabello en uso del SSAA 4x.

      Y por cierto, ¿tú ves el campo de fuerza que cubre a Lara?, sí, el mismo que evita que el cabello se apoye de ninguna de las maneras en sus hombros o su espalda, dejando unos 3-4 dedos de distancia siempre entre cabello y cuerpo.

      Está hecha toda una Jedi. Muy profesional el TressFX (Manquiña dixit).

      –-----

      PD: Qué curioso, al mirar mejor las capturas de ELP3 veo que la "mancha" es bastante simétrica pero NO cubre todo el cabello (se ven las puntas, etc, fuera de la mancha). Tiene un curioso colorido con zonas más claras y otras oscuras, ¿será un mapeado de sombreado/iluminación del cabello?. Pero debería usarse para calcular el valor de color/brillo de cada cabello final, no para aparecer así encima del mismo. :ugly:

      Ni idea de qué pasa exactamente, pero vamos, bug gordo sin duda.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @PGS:

      Vamos, lo que lleva haciendo Nvidia desde hace años y años. Lo que ahora afecta a vuestra empresa favorita y ya no es bueno que manden ingenieros para "ayudar" a optimizar los juegos para su hardware, lo que antes era visión de futuro y buenísimo para el usuario, ahora es malísimo.

      Esto pasa desde siempre, vamos desde que las empresas de hardware empezaron a patrocinar a las de software y viceversa, y siempre es malo para el usuario final.

      Perdona, pero las personalizaciones en el comentario y lo de "vuestra empresa favorita" te lo reservas, el tono el justo, que ya sabemos que se empieza señalando con el dedo y acusando de parcialidad y se acaba de otra forma. Yo tengo pruebas de la mala praxis de AMD en varios casos de "optimizaciones", y de forma que jamás se han visto en nvidia, cuya mala praxis si se ha centrado en algo es en bloquear características en su hard (uso propietario de innovaciones).

      El peor caso de los últimos tiempos de parte de nvidia fue con Crysis 2, con el tema del "mar de teselado", algo que de todas formas apenas sobrecargaba las gpus (lo que sí sobrecargaba de verdad era el detalle excesivo de teselado en detalles nimios de aceras y similares, eso sí tenía algo de peso y era lo que realmente era cuestionable en su utilidad, lo del mar de teselado… un absurdo en comparación). Pero casos como por ejemplo los de HAWX2 o Lost Planet 2 con su teselado estaban sobradamente justificados, otro asunto es que el hard de AMD tuviera y tenga unos teseladores de pena, que en gran medida hayan retrasado la adopción del teselado, la principal característica innovadoras de DX11, por muchos títulos.

      Se han realizado campañas de desprestigio contra el uso de teselado "masivo" por AMD (encontrarás razonable que si dijera "tu marca favorita" no vendría a cuento, ¿verdad?, simplemente como ejemplo te lo digo), diciendo auténticos absurdos como que es totalmente innecesario usar triángulos de 16 píxeles o menos de área, cuando esto no tiene sentidgo alguno (un triángulo de 16 píxeles tiene unas dimensiones aproximadas de 6x6 píxeles, más que visible con bordes incluidos en una pantalla actual, generar triángulos más pequeños sigue teniendo sentido, incluso).

      Pero hay implementaciones de efectos que se han hecho en AMD que no tienen sentido alguno. No tiene sentido alguno usar SSAA y añadir cualquier otra tecnología de AA a mayores, es ridículo. Tampoco tiene sentido que el rendimiento caiga como cae con algunos efectos totalmente similares a los implementados en juegos no-GamingEvolved o incluso TWIMTBP que rinden adecuadamente en nvidia (y a veces mejor en AMD).

      Está claro, si un juego sale con bench integrado en Gaming Evolved es que ha sido claramente manipulado para ofrecer resultados artificiosos. Se ha cumplido en los últimos Gaming Evolved con benchs, todos básicamente van mal en nvidia. La razón de incluir benchs en juegos tan influidos es simple, es la de afectar resultados de reviews dado que en éstas se tiende a adoptar juegos con benchs integrados ya que son cómodos para los reviewers. Después tenemos juegos que no llevan benchs integrados pero que son considerados muy importantes a nivel técnico, como Crysis 3 o Far Cry3, que curiosamente rinden muy bien en nvidia, así que habría que hablar de 2 niveles de juegos Gaming Evolved, los que ponen al servicio de AMD su rendimiento en detrimento de la calidad al usuario final, y los que la relación Gaming Evolved no se plantea con dicho servilismo, sino como un plus para AMD y el propio desarrollador donde testar y promocionar los productos de ambos conjuntamente.

      Hay una gran diferencia entre implementar una característica de forma masiva pero mejorando la calidad gráfica (LP2, HAWX 2) e implementar una característica de tal forma que hunda el rendimiento en el rival aún a costa de perder algo en su propia plataforma (pero mucho menos).

      La mejor prueba de esto se puede encontrar en la mejora espontánea de Sniper Elite V2, gran juego que sin embargo está lastrado por una implementación penosa de ciertos efectos por GPGPU. Yo a este juego le tenía el ojo ya encima porque ya sabía qué era lo que lastraba el rendimiento concretamente en origen, con las nvidia. Ya le dedicaré una entrada en el blog y si hace falta dejaré alguna de las imágenes por acá de resultados porque tienen sustancia.

      Es un caso muy claro de inserción de características para un lastre impresionante en el rival. Eso ni siquiera se vió en el mencionado caso de Crysis 2 con su "mar de teselado". Y si fuera un caso aislado el de Sniper V2, lo pasaría, pero ya van varios casos muy similares. Y parecer que Tomb es otro caso más a añadir a la lista.

      Así también gano yo reviews por un 5-8%... :troll:

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @fjavi:

      Claro es que es la misma generacion,tanto la 680 como la Titan,no se pueden pedir milagros,aunque como bien dices en juegos concretos que usan tecnicas GPGPU y a alta resolucion la Titan si pueden sacar un buen margen a la 680.

      Luego se acuso mucho a Nvidia de patrocinar juegos para que no tiren en AMD y ahora no veo esas quejas,con juegos metiendo SS a saco o tecnicas GPGPU,ademas lo del pelo en Tom Raider,que parece quita bastante rendimiento incluso en AMD.

      A mi personalmente me parece bien que se metan fisicas para hacer mas realistas los juegos,aunque me gustaria que fuera algo para todos,pero de momento las fisicas que veo por directcompute no me parecen tan buenas como las de PhysX,mismamente los efectos del pelo en Alice Madnes,me parecen bastante buenos y no pide demasiados recursos,ademas que no es solo el pelo ese juego tiene buenas fisicas.

      saludos

      Es que lo de Tomb ni siquiera es un motor de física, que veo a mucha gente confundida, es simplemente una simulación de pelo y nada más. Es como una pieza de un motor de coche, el radiador por ejemplo. Evidentemente el radiador por sí sólo no es un motor de coche, aunque sea una de las partes necesarias para tener uno.

      El caso de Tomb está trayendo cola, por cosas como ésta:

      http://www.hardocp.com/news/2013/03/05/nvidia_gpu_performance_issues_in_new_tomb_raider

      De lo que me quedo con estos extractos:

      Unfortunately, NVIDIA didn't receive final code until this past weekend which substantially decreased stability, image quality and performance over a build we were previously provided.

      …

      Hi Brent, this isn't solely a driver issue. The developer needs to make some changes on their end to fix their issues on GeForce GPUs. This will require code changes to the game.

      ...

      I myself am experiencing slow performance, (R.E. 20's FPS) with GTX 680 SLI at maxed out in-game settings, with FXAA. There is definitely a performance issue that needs resolving. The only thing you can do right now, if you are experiencing slow performance, is turn TressFX off, back to Normal, and try lowering in-game setting, starting with SSAO, to try and improve performance.

      O sea, el juego funcionaba MEJOR claramente con una compilación anterior a la usada en el gold, compilación final que nvidia por supuesto no ha visto hasta el lanzamiento básicamente (gaming evolved en acción). Normalmente cuando haces recompilaciones es para mejorar el rendimiento y arreglar problemas, no para hundir el rendimiento (en el rival de tu patrocinador ¬¬).

      Es necesario que el fabricante haga cambios en el código para parchear los problemas (o sea, que hay un punto de ineficiencia fuerte en sea como sea que se gestionan ciertos recursos, apuesto a que temas de GPGPU vista la increible mejora de los 314.14 beta de nvidia con SniperV2, algo a lo que le dedicaré un tiempo en breve).

      Y por último resulta que hay que bajar muchos parámetros, no sólo lo de TressFX. Se huele el uso de las "optimizaciones" para PC para reventar el rendimiento ajeno. Esto es lo que AMD entiende por "promocionar las tecnlogías abiertas", la de usarlas de tal forma que sean un boicot efectivo a todo menso a su propio hard.

      Dentro de un par de meses todo esto estará arreglado y tal, pero mientras a obtener los réditos del bench integrado en el juego (made for gaming evolved!!!) obteniendo puntuaciones hinchadas en cualquier review donde se les ocurra usar Tomb. Esto ya lleva pasando en varios títulos del 2012, así que no debería sorprender, pero a partir de ahora empezaré a llamarle directamente a las cosas por su nombre.

      Boicot, puro y duro.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @fjavi:

      No creo,pueden sacar diferencias grandes en juegos exigentes y alta resolucion,viendo como le tira sleeping dogs a 2560x1600,se ve que esas graficas a alta resolucion van muy bien,pero en juegos menos exigentes y a 1080p no sacaran tanto a la 680,los driver deben de mejorar,lo que si podria sacar mucho es el 4way a un 4way de 680,le podria sacar un buen margen,sobretodo con multimonitor y alta resolucion en los juegos mas exigentes.

      Saludos

      La arquitectura es la misma que la de las GTX 680, o sea que la gente se olvide de hacerse pajas mentales de 70-80% extra. De la misma forma que por otros lados se dice que sólo se saca un 20% respecto a otras monogpu, no caigamos en exagerar hacia el otro lado.

      Las mejoras más grandes vendrán de aplicaciones muy limitadas por shaders o por ancho de banda, y sleeping dogs parece un caso bastante bueno cuando se usa en él, además de todas estas técnicas de GPGPU escritas al dedillo para GCN que tanto gusto tiene por ellas AMD (ver drivers beta 314.14 de nvidia y su impresionante mejora en Sniper V2, comprobado que es por esto), usa Supersampling así que es un caso directo donde el ancho de banda se vuelve muy importante.

      Pero vamos, algún ajuste extra puede aparecer, pero va a ser para mantener como mucho un 50% de diferencia con las GK104, y gracias. Ojo, que media no es lo mismo que el rendimiento en una prueba concreta, que después pasa lo que pasa… :facepalm:

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Gráfica mas recomendable sobre 370€, Amd o Nvidia

      @pazuzu77:

      Ummm interesante, no sabían que lo habían arreglado, con la serie GTX 6xx no me dio tiempo a probar ningún bluray.

      Jajaja, a ti te pasó algo parecido a Wargreymon pero al revés, la GTX 670 no te salió demasiado para allá y te cambiaste al otro lado. ;D

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @geltops:

      Buenas ELP3:

      ¿ Cómo estás ? Espero y deseo que bien…......

      NO puedo leerme ahora todas las páginas.

      A vista de pájaro, ¿ ésta Titán es mejor que las Teslas para Computación Distribuida ?

      En precio, ya te digo que si, pues la última Tesla que compré C 2075 ........... :wall::wall::wall:

      ¿ Sabes dónde se podrán adquirir ? Igual está puesto pero como he comentado NO me he leído páginas anteriores ( esta noche lo haré )

      Saludos.

      No soy ELP3 pero te contesto igualmente… XD

      Mejor no van a ser porque no tienen activadas todas las tecnologías de GPGPU, pero sí tiene lo fundamental para ser igual de competente que una Tesla K20 en entornos donde no se necesite una gran escalabilidad ni se necesiten características como el soporte de ECC:

      http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1/4

      Titan mantiene las capacidades de coma flotante de simple precisión y de doble precisión de la K20 (activando en panel de control la opción adecuada), y parece que mantiene incluso temas como HyperQ y dinamic parallelism, no con todas las características, pero sin duda ofrecerá gran parte del rendimiento de una Tesla K20.

      Y lo que es mejor, a un tercio del precio de la K20. El precio de Titan, que puede ser un disparate desde el punto de vista del uso lúdico, sin embargo puede ser toda una tentación para estos temas por los que preguntas, ironías de la vida.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Gráfica mas recomendable sobre 370€, Amd o Nvidia

      @juasan:

      Hola foreros, soy nuevo por estos lares, normalmente suelo leer sin postear.

      Necesito que me aconsejeis desde vuestra experiencia que tarjeta gráfica seria mas conveniente en estos momentos, en un principio me da igual que sea Nvidia o Amd**.Lo que si pido es que no me de quebraderos de cabeza o los justitos,** tan solo la quiero para jugar y aplicar filtros al máximo y opciones gráficas, además de para ver pelis, aunque esto último ya lo hace cualquiera xD.

      He leido por ahí que AMD está dando un buen rendimiento a un precio mas ajustado, aunque si es una loteria que toque una sin problemas da que pensar.

      Las Nvidia al parecer son más estables e incluso sus drivers pero dan menos rendimiento, encima a un precio mayor, el phsix me da lo mismo.

      He reunido alrededor de 370 euros pero atascado me hallo en si coger una 670 o 7970, disipacion mejorada o de referencia, con OC de serie y demás…

      Tan solo deseo comprar la que mas me ofrezca por mas o menos ese dinero y me de una experiencia de juego mas completa huyendo de incompatibilidades de cualquier tipo, sttutering, y todo lo negativo que se os pueda ocurrir, ya no me enrollo más, básicamente esa es la historia.

      Ell resto del PC es un i7 3770 k, GA-Z77X-UD5H, 8 Gb y SSD

      Si quieres evitar quebraderos de cabeza la mejor opción es la nvidia, a cualquiera que sepa del tema no se le debe escapar que el soporte de drivers de AMD deja que desear, ejemplos:

      Hasta los drivers 12.11 beta (diciembre del 2012, básicamente) no había soporte para un juego Gaming Evolved en gráficas como las GCN (7970), este juego se llama Dragon Age 2, tiene unos añitos, e iba más rápido en las anteriores 6900 que en las 7900, ahora va "mejor", pero sin alcanzar a las nvidia por buen margen (muy irónico siendo un juego Gaming Evolved).

      Después, casos como el de BF3, donde el soporte de las 7900 era penoso hasta esos mismos drivers 12.11 beta, donde "despegaron" en rendimiento, pero vamos, un año para dar soporte a un juego del 2011, además un AAA de cuidado como es BF3.

      Hay más casos, pero además podrás encontrar que los juegos más esperados o más punteros en DX11, aún siendo juegos Gaming Evolved, están resultando ser más rápidos en nvidia que en GCN (juegos AAA, sin "chantaje" técnico ni incorporación de opciones gráficas extrañas, tema para un debate).

      Igual hay gente que puede cuestionar estos dos títulos, pero para mí Far Cry 3 y Crysis 3 son referentes del rendimiento en PC usando DX11. Y son esos triple A.

      ¿Extras de la nvidia?

      Mejores consumos. Mejor soporte multimonitor (no aumenta ni un w de consumo tener más de un monitor conectado a la gráfica, con las AMD el consumo aumenta unos 30-40W sólo por tener más de una pantalla conectada, en el escritorio), y rendimiento libre del microstuttering hallado hace 2-3 meses en la plataforma GCN, del cual AMD aún no ha dado una solución definitiva, ni está claro que la vaya a dar finalmente.

      Si no quieres quebraderos de cabeza, la nvidia. Si crees que te servirán de algo ese GB de VRAM o te apetecen esos títulos de regalo con la gráfica, muy buenos por cierto, la AMD. El rendimiento es demasiado parecido para justificar una opción u otra por éste. Otro tema es la estabilidad/soporte, que cada uno lo valore a su gusto, para mí eso vale y mucho.

      Si quieres ver a qué me refiero con el tema de soporte, una buena idea te lo darán estos replanteos de los distintos drivers y su evaluación en las gráficas AMD y nvidia durante el 2012:

      http://hardocp.com/article/2013/01/21/2012_nvidia_video_card_driver_performance_review/#.USyVmqU3v3A

      http://hardocp.com/article/2013/02/18/2012_amd_video_card_driver_performance_review/#.USyV8qU3v3A

      HarOCP es de todo menos un site pronvidia, así que puedes estar tranquilo que lo que digan en cuanto a soporte no es ningún cliché usado por un "fanboy de nvidia" por simple gusto.

      @Pazuzu:

      Existe una variable que no se ha comentado, si quieres ver peliculas en condiciones–1920x1080@24fps, escoge AMD, ya que comentas lo de las peliculas pero no se cuan exigente eres con esto.

      ¿Y cuál se supone que es el problema? Las nvidia, además de no gastar nada a mayores en reproducción de cualquier tipo de stream de video en comparación (no así las AMD con un streaming de bluray, otra vez, gastan al igual que con multimonitor unos 30-40W de más en estas condiciones), reproducen perfectamente streamings de 24 fps, y de 23,976fps si te refieres a los últimos.

      Desde hace tiempo ya. Aunque igual estoy despistado y me engañan mis ojos, jejeje. Yo no he visto problema alguno con 24 fps o lo que tercie en nvidia.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @ELP3:

      Lo he probado.Y efectivamente se deshabilita el boost.Y haciendo un Oc medio,de por ejemplo 1100MHZ se manienen clocks.Pero nuevamente,llegado a un punto,a partir de 1133MHZ vuelve a bailar y bajarse solo el voltaje de 1.2 a 1.15.

      Digan lo que digan,está claro que un vez pasado un límite de gasto,entran en protección.Quizás no sea relacionado con el boost sino un OCP similar a la de las GTX 580.Pero algo de eso hay,seguro..

      Un saludo y gracias..;)

      Mm… vaya, interesante. Entiendo que así alcanzas más frecuencia o por lo menos una frecuencia más alta de forma estable. Pero por lo que leo también has subido el voltaje a 1,2V, y eso puede ser problemático para lo que se intenta conseguir. A ver si me explico:

      Como bien mencionas hay "algo" que evita que el consumo se dispare, un "límite" como el OCP. Esto en realidad no es más que una de las facetas que tiene el boost, ya que realmente se compone de algo más que de la faceta más mencionada por el público en general, que es de ese OC automático que hace, subiendo frecuencias y voltajes.

      El boost funciona también para abajo, y es muy fácil comprobarlo en juegos 3D que pidan poca carga, donde el boost empezará a ajustar frecuencias de forma muy dinámica según la carga de trabajo. No pasa como en generaciones anteriores donde existían definidas unas frecuencias a piñón fijo para funcionamiento en escritorio, video, 3D de baja carga, y 3D de carga alta.Evidentemente hacen falta juegos con muy baja carga de trabajo, no estoy hablando de juegos de carga "moderada", pero se puede comprobar esto en juegos tan recientes como Dead Space 3, con Vsync, donde la GPU trabajará a 700-900 MHz como mucho ya que va sobrada para esa carga de trabajo.

      Una vez explicado que el boost tiene esa faceta de "protección", pero no sólo cuando se suben las frecuencias por encima de los valores oficiales, sino también cuando por lo que sea, se decide bajar de éstas a otras frecuencias más bajas (superar TDP, carga de trabajo muy baja, etc), ya puedo entrar en el tema:

      Al subir el voltaje a tope estás en gran medida aumentando el consumo un buen puñado de watios, nada exagerado, pero suficiente como para que sea más fácil encontrarse con el límite de TDP de esta gráfica. Al hacer esto el boost, deshabilitado para temas de OC automático, como ya he dicho, no deja de funcionar totalmente, y es cuando actúa como un mecanismo similar al OCP, cortando "inyección" en la gráfica y bajando frecuencias.

      Por lo que he entendido en Titan el voltaje es una medida de OC un tanto cuestionable, ya que lo único que hace realmente es añadir 2-3 pasos extra de frecuencia en el boost (unos 26-39 MHz, depende del nº de pasos), con voltajes mayores en cada uno de éstos. El resto del rango de pasos del boost sigue igual, haciendo que si no se es estable a una frecuencia X con el voltaje de serie, no se pueda ir mucho más allá que la suma de estos pasos al subir el voltaje en Titan (ya que sólo aplica estos voltajes a estos pasos añadidos del boost, no a los anteriores).

      Como Boost está "desactivado" como tecnología de OC automático, es posible que este voltaje sí se aplique a las frecuencias tope de la gráfica que consigas con el OC, pero también es posible que cuando pases de esos 1133 MHz que mencionas, con ese voltaje de 1,2V que dices más esas frecuencias, simplemente la gráfica supere el límite de TDP claramente y por eso el boost "resucite" para su función menos conocida de cortar gas a la gráfica.

      Creo que lo ideal para comprobar el potencial es primero encontrar el máximo OC sin tocar voltaje alguno, OC que no "baile", vamos. Para eso sería necesario subir el TDP y temperaturas máximos a los topes, para asegurar que interfieren lo mínimo necesario activando al boost como "censor" de frecuencias.

      Una vez llegado al límite de OC estable en estas condiciones, dependiendo de cómo lo haya alcanzado, que puede ser de dos formas, una encontrando inestabilidades en el OC con fallos de funcionamiento de juegos/aplicaciones o cuelgues, en estas condiciones sabrías que por lo menos has alcanzado el tope del chip a ese voltaje de serie sin interferencias del Boost. Y dos, si al subir frecuencias te encuentras en vez del panorama anterior uno donde el TDP te esté cortando las frecuencias y tengas serias inestabilidades en las frecuencias, que no cuelgues.

      Según el resultado anterior, ya sabrás si realmente no hay nada que hacerle con el voltaje extra o si sirve de algo, está claro que si con el voltaje de serie ya "corta" por sí sólo las frecuencias el boost, añadir el voltaje extra sólo servirá para agudizar la situación. Pero si has llegado al límite de frecuencias estables con voltaje de serie, quizás sí puedas ver si sirve de algo (o no) subir este voltaje. En principio miraría qué pasa sólo activándolo, para ver si añade o no frecuencias (no debería al no funcionar el boost-OC) extra, y también para comprobar si con sólo el añadido del voltaje empieza a bajar de frecuencias sólo. Si esto no pasa, es entonces cuando seguiría haciendo OC en la gpu para ver el límite que alcanza, que posiblemente sea uno similar al que has encontrado.

      Pero cuidado, si no sigues este procedimiento igual estás pasando por alto, digamos que frecuencias estables a 1,1625V de 1160 MHz, por decir algo, por añadir este voltaje ya a tope.

      @Kynes:

      Una cosa que creo recordar leí en una review, no recuerdo si en anandtech. Lo de 1/24 y 1/3 tiene un problema de consumo, es decir, el chip de las titán se hizo principalmente para usarlas en centros de datos, por ello tiene muchísima más potencia de cálculo en doble precisión que las 680, pero esto en juegos no se usa. Tener las unidades activas sirve para deshabilitar el boost, cierto, porque aumenta la potencia consumida y nVidia desactiva mediante drivers el boost en estos casos para evitar que la gráfica se pase de consumo. Es más, con 1/3 hay veces que incluso tiene que reducir su velocidad a 750 MHz si está la gráfica trabajando, para evitar pasarse de consumo. No creo que sea buena forma de aumentar el overclock la de activar la opción de 1/3.

      ¿Es posible que lo del límite de consumo sea para conseguir la certificación PCI-Express? No pueden consumir más de 300W las gráficas según esta certificación, y como parece que nVidia quiere vender estas gráficas sobre todo en equipos completos, puede ser una causa. Algunos fabricantes se niegan a utilizar componentes no certificados.

      Algo menciono sobre el tema en mis comentarios anteriores, y sí, sube algo el consumo, pero realmente debe ser casi anecdótico, ya que en juegos todas estas unidades de cálculo extra no se usarán para nada. Esto es, tendrán un consumo mínimo añadido por estar en idle, pero dado que no se usarán, su consumo es "despreciable" ya que no aumenta suficientemente. Otro asunto es que al usar para GPGPU esta gráfica y con toda la potencia de doble precisión activada en uso (más en uso la de precisión simple, una situación de las peores condiciones), igual sí se puede llegar a superar el TDP definido por nvidia y por tanto sea necesario como medida de seguridad el deshabilitar el boost.

      Creo que la certificación pci-e se la "suda" bastante a nvidia en esta gráfica, al fin y al cabo quienes la compran suelen tener equipos topend y muy preparados para trabajar muy por encima de estas especificaciones. Es cierto que se han visto unos cuantos equipos "élite" prefabricados en formato minimalista con las Titan como gráficas, muy interesantes, pero incluso estos equipos están más que preparados para aguantar ese TDP y más.

      Posiblemente sea una limitación impuesta tanto para que en entornos de uso GPGPU no se superen estos TDPs, ya que en este tipo de entornos son más estrictos con el tema de cumplir con este tipo de limitaciones de consumo, así como que por una razón que mucha gente no se sospechará:

      La Titan NO debe superar de serie a las Tesla hermanas que tiene a la venta nvidia con el triple del precio. Aunque han deshabilitado algunas de las capacidades GPGPU, son relativamente pocas comparadas con las que han dejado, sobre todo el tema de cómputo en DP. Si dejaran a estas Titan con el boost habilitado en DP, además de posibles problemas de no respetar dicho límite de consumo, existiría la clara anomalía de que podría ser más rápida la Titan en no pocas tareas de GPGPU que la Tesla equivalente (que no tiene boost alguno), así que hay que poner una barrera "al campo", porque lo que no tiene sentido para nvidia es vender un producto de computación a un tercio del precio ordinario y que pueda ser más rápida en tareas de cálculo que las versiones profesionales. Ya bastante raro es que dejen el tema de computación de DP íntegro en las Titan (no se hizo con el GF1x0 Fermi, donde funcionaban a la mitad de rendimiento las Geforce que las Tesla).

      Titan es carísima para el gamer, pero ahora mismo es un dulce muy atractivo para el profesional en temas de GPGPU, la comunidad científica, etc. Si además funcionara el boost, hasta podría ser más rápida que la Tesla, no ya "equivalente". Hay tecnologías de GPGPU del GK110 que aún sólo funcionan en las Tesla, pero sinceramente, al mantener íntegro el potencial de cómputo en una versión Geforce, ya están poniendo un auténtico pastel en la mesa para esta gente (algunos proyectos se beneficiarán de los extras de la Tesla, pero otros no, y ahí está el pastel que es Titan para ellos).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @ELP3:

      Me he perdido totalemente con lo del modo "DP"..es mas,no sabía que lo hubieses puesto en algún lado..

      Lo puedes explicar mejor?

      Salu2.

      Buff, hasta me ha costado encontrarlo a mí en los posts anteriores, tendré que poner un Avatar cantoso y de colorines para ver mis comentarios de un primer vistazo. Es éste el comentario:

      http://foro.hardlimit.com/showpost.php?p=538971&postcount=33

      Y cito el punto donde hablaba de esto:

      PD: Una posible forma de "saltarse" el funcionamiento de Boost 2.0 sería la habilitación en el panel de control del cálculo en coma flotante de doble precisión (ratio 1/3 en vez del estándar 1/24), esta opción parece deshabilitar la tecnología boost y volver a la gráfica a un modo "conservador" de funcionamiento.

      Pero indirectamente puede ser bueno para jugar con OCs totalmente manuales, al sacar de la ecuación al boost si lo encuentras muy intrusivo (no está eliminado del todo, siempre está la "protección" de valores de TDP y temps activada pero lo que no hace la gráfica es subir por sí misma, así que seguramente el desplazamiento de frecuencias que tienes que aplicar en ese modo es mucho mayor para lo mismo).

      Así que en este tema también conviene tener a tope Temp y TDP, sólo para evitar que el boost funcione aún a la baja, eso sí, el baile de frecuencias debe ser menor de esta forma. Y puede que puedas jugar con el voltaje algo en ese modo, pero eso déjalo para después porque posiblemente la ganancia es poca, y es mejor entender el comportamiento "sin voltaje" de la gráfica primero.

      Saludos.

      Hay una opción en el panel de control de nvidia para cambiar la gráfica de modo 3D a gpgpu, por decirlo de alguna forma (esto no es correcto, pero se parece). Al activar este modo que habilita todas las capacidades del chip en cálculo de coma flotante de doble precisión, se deshabilita el boost (queda el "oficial" pero no baila hacia arriba, es más estable en frecuencias), o sea que en gran medida elimina las optimizaciones de frecuencia que intenta la técnica del boost.

      Así que es posible que sea más fácil fijar la frecuencia con OC activando esta opción, ya que el bailoteo del boost no debería aparecer. De todas formas esto es una sugerencia por una posible vía alternativa para lograr OCs más altos o estables en frecuencias, ya que me parece que nadie ha probado en esta dirección.

      Pero si el boost es tan intrusivo a mí me parece una obvia alternativa para intentar deshabilitarlo en gran medida, y así cacharrear mejor con la gráfica, sean los que sean los resultados (igual pueden ser peores porque se supone que este modo aumenta algo el consumo).

      Sería interesante, a ver si va a haber una "senda secreta" para el OC estable o alto en las Titan… :ugly:


      PD: Les he "choriceado" :troll: una captura de pantalla del panel de control a la gente de hardwarecanucks para que veas cuál es:

      Es fichar a que sí esté activo y ya se deshabilita el boost, por lo menos en cuanto a subidas y los bailes más "gordos".

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @ELP3:

      Creo sinceramente,que por respeto,justo el que algunos/muchos no tienen.Debemos de zanjar el tema de N3D ya.

      No me importa lo que digan/hagan..no es un problema solo de usarios,sino directo de los dueños de la web,que han preferido números frios de visitas sobre la calidad de la mismas y aportaciones.A mí me dá pena,pero es lo que hay y se acepta.

      Aquí estamos muy bien,respétemonos unos a otros,que es la base de cualquier aportación mútua y demos ejemplo.Empezando por dejar de hacer menciones a esa web y si no nos gusta,no la leamos.Prediquemos con el ejemplo y a ver si aquí por fin,podemos tener un sitio en el que de verdad,y siempre como digo con la base del respeto,aprendamos unos de otros.

      Un saudo a todos.

      Ok, si sé que tienes razón. Pero es que el tema es que a la hora de hablar de los que se han ido no se cortan tanto (unos concretos, en realidad la GRAN mayoría de usuarios de N3D no son así de hipócritas, que conste) algunos de los que quedan en tachar de X e Y a los que se han ido (o echaron).

      Ya no es un tema de la propia web o estar en desacuerdo con su staff, que en estas menciones no tienen nada que ver, si no de un par de usuarios que les gusta polemizar "explicando el porqué se van otros" pintando un cuadro irreal.

      Pero bueno, aquí a lo nuestro y punto.

      ELP3, ¿Has probado lo que te dije para ver si te va a mejor el OC, lo de deshabilitar el boost haciendo que la gráfica pase a modo "DP" (panel de control y elegir el ratio 1/3 de coma flotante de doble precisión)?

      Sería interesante hacer alguna prueba por ahí, ya que dices que aún te bailan las frecuencias de la gráfica con OC. Teóricamente esto se cargaría el Boost hacia "arriba", dejando sólo lo que es estrictamente la protección térmica o de TDP, y como parece que esta gráfica va muy holgada en esto (si hace falta subes ambos parámetros a los topes, los límites), seguramente se pueda subir "fija" la frecuencia, ya que el boost dejaría de funcionar excepto como simple protección. A cambio puede que suba un poco el TDP, pero sinceramente no creo que esto se note apenas, tener "habilitadas" las SIMD de DP pero sin usar no debería subir apenas el consumo, sobre todo si el chip mantiene en IDLE las unidades de ejecución sin uso.

      Podrías probar esto, igual encuentras así la forma de elegir la frecuencia exacta sin bailoteos de ésta.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @Wargreymon:

      Misma razón por la que me he ido yo, sobretodo por que yo compré una HD7950 y les expliqué lo que me pasaba, e incluso cité una web (Techreport) donde les ocurría lo mismo que a mi, pero bueno, todo quedó en que yo estaba loco o que mi GPU estaba mal, por que las 1000 pruebas que hay por la web donde se demuestra el grave problema de frametimes que tienen las GPUs GCN son todas falsas y de poca importancia segun muchos foreros de allí, así que aquí todos somos pronVidia, sobretodo yo, que de los 4 PCs que tengo en casa ninguno lleva GPU nVidia :fumeta:.

      Parece mentira, ¿acaso no sabes que los frametimes que tanto usan en TR son una engañifa promovida por nvidia para conseguir aparentar que no son tan malas como realmente son? Si todo el mundo sabe que una 7870 es más rápida que una GTX 680. Algo que por cierto, en ese gran foro citado alguno de sus usuarios dijo y defendió sin un toque de la moderación por "flamear". Porque vamos, decir eso es flamear, de toda la vida. Esas son las cosas que hacen que la gente se vaya, el no aguantar tonterias sin base que además, si te atreves a discutir, aún te dirán de todo.

      Lo que no puede ser es que la industria de las reviews en bloque esté cambiando a otro tipo de medidas más allá de los simples fps, y que cierta gente decida ignorar estos resultados, o a los usuarios que dicen ver dicho problema del microstuttering (wargreymon). Hay un cambio bestial en la industria justo ahora en la métrica usada, tras comprobar la importancia de los tiempos por frame, métodos varios en distintos sites, hasta la propia AMD ha sacado estos famososo drivers beta 13.2 sólo para paliar en medida de sus posibles algunos de los problemas de latencias (muy localizados, 3 juegos literalmente). Si no es posible que no hubieran ni salido a la luz, desde luego no desde la beta 2 como ha pasado.

      Pero bueno, es que da igual, incluso con las medidas convencionales se puede comprobar que nunca ha estado tan apretado el rendimiento usando métricas tan convencionales como los fps medios. Si AMD tuvo que sacar la 7970 GHz (porque no estaba entre sus planes) simplemente para ganar por un pelo a la GTX 680, más ajustado el tema no podía estar. Que estoy hablando de un producto cuyo único cambio es una BIOS con OC y sobrevoltaje, nada más (mismo PCB, mismo chip, misma calidad de éste de media vs 7970 ordinarias, etc).

      Claro, después extraña que haya gente que se haya ido o les hayan echado, porque responden "mal" a provocaciones que caen como gotas contínuas sobre la cabeza (lo de Praimus creo que quedaba claro que no era pretendiendo faltar, o desde luego para faltar a alguien no le dices que es para tirarle a la hoguera algo que ha dicho, menos lo baneas por eso) a un día sí y un día también.

      Pero es muy fácil de comprobar el tema de la falta de neutralidad clara, se puede ir a ese foro y comprobar el hilo de Titán, y ver cuántas veces se falta al respeto a la gente que compra Titan con mil epítetos (hay que tenerlos grandes para poner tus resultados aún así viendo el tonillo usado, ahora está más relajado, pero hace una semana se decía de todo). Cuántas veces se recomiendan cross o alternativas AMD en el hilo dedicado a Titan. Ahora, se hace lo mismo y se busca en hilos de gráficas AMD (modelos) cuántas veces alguien se atreve a recomendar una nvidia (porque no es por nada, ventajas sigue teniendo las suyas, y rendimiento/precio, si sabes buscar también), y el tipo de respuestas que recibe de otros usuarios.

      Eso es un trato asimétrico totalmente.

      Si con esto no ha quedado claro el tema a esa gente es que son más fanáticos de lo que me pensaba. Porque llamar "cuarentón que vive en casa de sus padres" y otras lindezas a alguien que luce sus Titan recién compradas en una foto (un desconocido cualquiera, puesto como ejemplo por un usuario de ese foro), es de todo menos de recibo. Más que nada porque no tiene base, es sólo una foto de las gráficas (a la gente le gusta inventar historias). Y como ésta, varias.

      Con razón ELP3 pasa de hacer esta review ahí, ese tono sobra, ni siquiera sé cómo es que lo consienten los pocos que se han atrevido con Titan en ese foro, porque respeto… no se está guardando mucho, precisamente. Bueno, eso y el tratamiento totalmente asimétrico que hay, que es más que evidente además.

      En fin, unos se han ido para estar más tranquilos, a su rollo, y otros parece que les molesta que alguna gente no quieran compartir el "olor a sobaquera" común, cuando el ambiente no es del agrado. No sé de qué se quejan. Aunque igual les "molesta" no tener contra viento y marea, aguantando el chaparrón, la review de la Titan "casera" de ELP3. Pero si ya tienen otros voluntarios no sé de qué se quejan ya, la verdad.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Como reparar una grafica con ARTIFACTS, usando un HORNO.

      @Tecnho:

      Muy buena wqwendigo, bien ilustrado, me lo guardo y espero no necesitar usarlo nunca XD

      Nooo, quita quita… ;D

      Pero si se necesita, ahí está, y es increíble la cantidad de veces que funciona el truco. Está claro que cuando se dió el salto a materiales de soldadura que cumplieran la normativa RoHS, la cagaron pero bien en todas partes con productos de microelectrónica. Consolas, cpus, gráficas y sus gpus, etc. Cualquier chip que se someta a ciclos de calor y enfriamiento fuertes parece ser el objetivo del problema de soldaduras "rotas". Creo que por haber casos los hay hasta de chips de memoria (normalmente las montadas en gráficas o similares, los que más se "estresan" en calor, vamos).

      Por lo menos la primera generación de productos RoHS es cuestionable en este aspecto, porque además afecta realmente a todos los fabricantes (se hizo famosa nvidia precisamente por el tema de las soldaduras y el material elegido en sus 7x00/8x00, pero ahí están las gpus de ATI de las XBOX como ejemplo de que el problema es muchísimo más extenso).

      Tiene "huevos" que sean los clientes los que nos comamos los productos con una tara de fábrica y tan masivos, que no sólo se limitaban a un fabricante, como el tiempo demuestra (o sea, se podría reclamar en contra de toda la industria por un uso de materiales que no cubrían las propias especificaciones que asímismos se aplicaban).

      Lo más parecido que he visto antes que esto, fue el tema de los condensadores clónicos de los japoneses que hacían los chinos, y que dieron como resultado placas base que se morían en 2-3 años en vez de ser capaces de aguantar 7-10 años, que los aguantan perfectamente (y seguro que fueron placas, gráficas, y electrodomésticos varios los afectados).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Como reparar una grafica con ARTIFACTS, usando un HORNO.

      El truco funciona, sin duda, mi receta particular es ésta:

      http://wwwendigo.blogspot.com.es/2011/12/receta-del-dia-grafica-al-horno-con.html

      (aquí la entrada que le dediqué al tema hace ya algo de tiempo).

      Y los pasos son éstos:

      Pelar la gráfica de todo componente desmontable como disipadores, ventilador y, sobre todo, componentes que tengan plástico como cables y demás. No hace falta desmontar conectores y demás de plásticos duros, pues suelen ser sobradamente resistentes al calor al que se va a someter.

      Limpiar la gráfica de cualquier resto de almohadilla o pasta térmica que queden en el chip gráfico o los de memoria. Revisar bien que no quede ninguna pegatina o similares que sean de materiales plásticos "ligeros" (funden), las de papel da igual. Sí, aguantan el proceso.

      Encender el horno en un ciclo de precalentamiento a 200ºC durante unos 10 minutos.

      Mientras, preparar en una bandeja de horno la gráfica, colocando un fondo de papel de aluminio, sobre todo para evitar posibles goteos de alguna resina/plástico que se funda que nos hayamos olvidado, o en caso de accidente alguna gota de material de soldadura y similares (accidente que te puede suceder, por ejemplo, si no sigues al pie de la letra las recomendaciones sobre tiempos y temperaturas de esta receta).
      Colocar la gráfica en la bandeja con el papel de aluminio pero sin olvidar, IMPORTANTE, colocar la gráfica apoyada sobre 3-4 bolitas de papel de aluminio que sirva para separar la gráfica de tocar el fondo de la bandeja (¿no querrás que nada de lo que está fundiendo se una al fondo de la bandeja, verdad?), se coloca en los extremos estos apoyos dado que ahí no existen grandes soldaduras que puedan llegar a crear el problema ya mencionado. La gráfica desde mi punto de vista es mejor colocarla con la gpu hacia arriba para que la fuerza gravitacional no haga alguna "maldad" con algún componente cuyas soldaduras semifundidas puedan dejarlo caer.

      Colocar la bandeja con la gráfica ya preparada en el horno, y dejar el "plato" cocinándose en el horno durante otros 10 minutos a 200ºC.

      Una vez llegado este momento, si lo has hecho todo correctamente, notarás un cierto olorcillo a soldadura de componentes electrónicos (no demasiado intenso tampoco), no te preocupes, es normal y de hecho lo deseable, apaga el horno y deja reposar la gráfica en el horno, sin tocarla, por lo menos media hora para que se enfríe. Para facilitar el enfriamiento puedes entreabrir ligeramente la puerta del horno.

      Después de esta media hora, puedes retirar la gráfica del horno y dejarla reposar un poco más a temperatura totalmente ambiente (la gráfica saldrá con sus componentes aún un poco calientes), para dar un tiempo extra a que se vuelvan a solidificar plenamente las soldaduras "tratadas". Tras esto montar disipadores y resto de piezas que se hayan retirado anteriormente de la gráfica, por supuesto cuidando especialmente la refrigeración de la gpu (pasta térmica en el chip gráfico, poca y bien distribuida con el truco de la "tarjeta" o similares).

      Pinchar y probar la gráfica en el equipo, si hay suerte, se habrá restablecido plenamente la gráfica, sino, seguirás teniendo ese mismo pisapapeles que tenías antes, pero ahora un poco más moreno. Recuerda, es un método EXTREMO usado para recuperar una gráfica cuando no hay nada que perder, no lo uses con gráficas en garantía ni, desde luego, esperes que nadie se responsabilice de las consecuencias, sean las que sean, de usar este método.

      O sea, el procedimiento es muy parecido al visto en otros comentarios de usuarios, hay otras variantes con más tiempo o más temperatura, pero considero que no pasarse con ésta y tener un tiempo suficiente pero no exagerado es la clave para el éxito del procedimiento (no sólo que "refluyan" las soldaduras, sino que lo hagan bien y que no se dañen otros componentes).

      La única discrepancia que puedo ver es el tema del "enfriamiento", yo no daría un tiempo tan corto en el horno tras acabar el proceso a la gráfica, dejaría que se enfríe en él lentamente durante media hora dejando ligeramente abierta la puerta del horno para que así el enfriamiento sea lento, pero no se eternice.

      La cuestión es que durante el enfriamiento se formará la estructura metálica (sólido) de la soldadura, así que es interesante que el proceso sea "correcto" y que no salga un material "amorfo", un enfriamiento rápido puede afectar a la calidad de la soldadura, así que incluso no pondría plazos para sacar la gráfica, antes que sacarla del horno rápidamente (si está en estado semisólido las soldaduras, el estrés térmico y cambio rápido de temperaturas en enfriamiento puede provocar desde una mala "solidificación" hasta las microfracturas con las que ha empezado este problema).

      De las tres piezas probadas directamente, 2 gráficas nvidia y una PS3, las tres han funcionado tras el "horneado", y lo que es más importante, todas siguen operativas, la consola usándose cada día, y las gráficas aunque ahora están de "reservas", una de ellas funcionó perfectamente durante medio año usándose todos los días y para jugar hasta que fue sustituida por otra (no llegó a fallar).

      También me consta que a otros usuarios este método les ha permitido resucitar 3 de 3 gráficas dañadas, y de momento no ha habido ninguna baja entre las gráficas o consolas reparadas.

      Así que creo que la "receta" que uso está muy cerca del ideal, la que se pone en este hilo anteriormente es muy parecida, realmente casi parece la misma, pero yo daría más importancia al enfriamiento en el horno, ya que es donde realmente se solidificarán las soldaduras. Un enfriamiento lento en la primera fase de éste es más que necesario, en realidad al sacarla del horno y en la última parte del enfriamiento el tema ya no es tan importante, porque ya se habrá solidificado totalmente las soldaduras. Enfriamiento muy lento al principio, y después a gusto de cada uno, pero la primera fase que sea lenta para dar margen a un reflujo de soldaduras correcto.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @ELP3:

      Has dado justo en el clavo..hay que dejar que lo haga TODO.No me gusta,pero es así como ocea..no hay que tocar nada,nisiqueira el ventilador,si lo fuerzas,ya no ocea igual..la he puesto todo en auto con el Guru II que es el de Gigabyte,y la cosa ha ido mejor..en el primer post está.

      Salu2.

      P.D.

      Gracias a Jotole y Praimus…se hace lo que se puede,de verdad..un abrazo.

      Oks, lo que sí podrías toquetear es el tema de subir valores de TDP y temperatura límite, eso sólo son "instrucciones" de cómo debe funcionar el boost para que vaya más holgado.

      No tengo claro que sea recomendable subir el voltaje, porque lo que realmente hace es subir 2-3 pasos de 13 MHz extra con voltajes a mayores, esto es, aunque el Oc así aumente, lo cierto es que toda la escala de pasos anteriores sigue igual, con el mismo voltaje, y por tanto no debería ser útil para alcanzar mayores OCs más allá de la adición de esos 2-3 pasos extra de frecuencia (30-40 MHz),

      Lo del ventilador lo que me sospechaba, al estar gestionado todo por el propio Boost en temperaturas, posiblemente toquetear ahí afecte a su comportamiento negativamente, es posible que salgan mejores softs de control en breve que tenga en cuenta las peculiaridades de boost 2.0, pero de momento parece que son "rústicos" para aplicarse en Titan sin esas rarezas vistas.

      La temperatura no debería importar mucho con este tipo de control, así que no temas meterle mano para que se "caliente" aunque pueda parecer contraproducente y hasta "ilógico" lo de buscar temperaturas máximas. El boost seguro que opera "más a gusto" viéndose con margen, y por lo visto en reviews, básicamente esas temperaturas máximas no se alcanzan así como así, así que se pueden ver como una forma de liberar las barreras autoimpuestas por el boost.

      Temp+TDP en topes y toquetear sólo frecuencias para añadir un desplazamiento generoso, y confiar en el Boost para el extra que gestiona.

      PD: Una posible forma de "saltarse" el funcionamiento de Boost 2.0 sería la habilitación en el panel de control del cálculo en coma flotante de doble precisión (ratio 1/3 en vez del estándar 1/24), esta opción parece deshabilitar la tecnología boost y volver a la gráfica a un modo "conservador" de funcionamiento.

      Pero indirectamente puede ser bueno para jugar con OCs totalmente manuales, al sacar de la ecuación al boost si lo encuentras muy intrusivo (no está eliminado del todo, siempre está la "protección" de valores de TDP y temps activada pero lo que no hace la gráfica es subir por sí misma, así que seguramente el desplazamiento de frecuencias que tienes que aplicar en ese modo es mucho mayor para lo mismo).

      Así que en este tema también conviene tener a tope Temp y TDP, sólo para evitar que el boost funcione aún a la baja, eso sí, el baile de frecuencias debe ser menor de esta forma. Y puede que puedas jugar con el voltaje algo en ese modo, pero eso déjalo para después porque posiblemente la ganancia es poca, y es mejor entender el comportamiento "sin voltaje" de la gráfica primero.

      Saludos.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @ELP3:

      ACTUALIZO[/COLOR

      He cambiado de equipo de pruebas,ahora estoy en una Rampage IV con un 3930K a 5GHZ

      3D Mark Fire Strike,gráfica stock:

      Aquí parece que la cosa vá mas o menos bien,incluso ahora,que pongo una con OC,por fin me muestra el GPU-Z que hay un cambio en el voltaje a 1,2V..el problema? ved vostros mismos…el máximo es cercano a 1200MHZ..es mas,ya he conseguido pasar cosas a 1200MHZ,pero ni de coña mantiene esas frecuencias a pesar de ser una gráfica realmente fresca,aquí la tenemos con el venti al máximo,voltaje y OC como no pasa siquiera de 55º..según Nvidia,la gráfica no debería bajar cloks,sin embargo los baja de una manera brutal,estando casi mas tiempo a 1070-1090MHZ que cerca de 1200MHZ..explicación? pues no la sé..ni tpd,ni temp se han pasado en ningún momento de lo establecido,y aún así,los cambios han sido superacusados...

      De momento acaban como aquel que dice de llegar,así que no me ha dado tiempo a nada.Un poco de paciencia,e iré colgando cosas a lo largo de la noche..

      Salu2.

      ¿Has probado a subir la temperatura objetivo de la gráfica? Ahí en el Afterburner no aparece, pero por lo visto este parámetro es el que realmente controla el comportamiento del boost, mucho más que el TDP en sí (que por lo visto ni has superado el 100%).

      Cuanta más temperatura tenga en ese valor, el boost "entiende" que más puede jugar con los temas de frecuencias altas con sus voltajes linkados, hasta que se acerque a esa temperatura que es donde empezaría a meter recortes.

      Tampoco la enfríes demasiado, si has puesto en manual los ventiladores, déjale en alguna prueba con los ventiladores de stock para que tenga total control sobre éstos, a ver si se aplica el boost como en teoría parece ir. Nada de poner la temperatura objetivo más bajas, te lo digo por si acaso, porque eso sí que puede ser pernicioso para el rendimiento.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Test De Prueba Real Nvidia Gtx Titan,single-sli-tri Sli,4 WAY SLI

      @ELP3:

      Pediros perdón a todos.Pero estoy teniendo muchos problemas ahora para instalar el S.O y Raid en la rampija.Y unido a mi estado de ánimo,hace que sinceramente se me esté haciendo un mundo poder poner algún resultado decente.

      Intentaré aportar lo que pueda a lo largo de la noche.

      Mis disculpas,pues sé que esta mini-review ha causado mucha espectación entre otras cosas porque yo mismo la he suscitado.Pero cuando las cosas vienen mal dadas,no sale una derechas…

      Un saludo.

      Tranquilo y no pidas disculpas,que aquí estaríamos sin dato alguno de usuario si no fuera por ese aporte que haces, así que si hay que esperar, se espera.

      Desde luego no nos vamos a encontrar muchas reviews caseras españolas con ni más ni menos que un triSLI de Titan en reserva, con todas sus combinaciones… (de hecho ni en las reviews profesionales, que las consiguen de "prestado" y con mucha suerte 2) XD

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Nvidia Geforce Titan (gk110)

      @txemote:

      xDDD, ya estas por aquí Piratilla. ¿Banearon a ROCKET? Pero si ese hombre no se metía en ningun tinglado, aportaba al foro sus experiencias según iba actualizando sus juguetes y poco mas…:ugly:.

      Como te han dicho el precio de 700€ es sin iva, sin iva y ya me parece un disparate... la madre del tren.

      Saludos!

      Bueno, me alegra ver que no soy el único anonadado con el caso de Rocket, que además de aportar y mucho jamás se metía con nadie. Uno que "desapareció" y no fue por desgana, sino con un sorprendente baneo (que se pregunte a Oliver si me ha dejado alucinado ese baneo concreto, o no).

      No se puede tratar así a la gente.

      @ELP3:

      Hola a todos…

      Piratilla.. no se te escapa una..

      Bueno.A pesar de unos problemas personales,tendré las TITAN esta tarde.Intentaré hacerlo lo mejor posible,aunque debido a estos problemas,quizás no pueda estenderme mucho en las pruebas.Pero haremos lo que se pueda y lo que la fuerze y moral mande...

      Un saludo a todos.

      Olé, otra vez contra marea y viento siendo de los primeros en España en tenerlas, incluso cuando la suerte parece que retrasaría su aparición entre los usuarios alguna semana.

      No sé qué contactos tienes, pero son buenos sin duda.;D

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • 1
    • 2
    • 10
    • 11
    • 12
    • 13
    • 14
    • 12 / 14