• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. wwwendigo
    W
    • Perfil
    • Siguiendo 0
    • Seguidores 0
    • Temas 0
    • Mensajes 262
    • Mejor valorados 0
    • Controversial 0
    • Grupos 0

    wwwendigo

    @wwwendigo

    91
    Reputación
    39
    Visitas
    262
    Mensajes
    0
    Seguidores
    0
    Siguiendo
    Registrado Última vez conectado

    wwwendigo Dejar de seguir Seguir

    Latest posts made by wwwendigo

    • RE: Podemos decir que Maxwell soporta Asynchronous?

      @fjavi:

      Yo la verdad estoy siempre relajado, pero hay cosas que no me gustan, la cosa a quedado con los 3.5gb de la 970, por ese programa pero hace lo mismo en la fury y pasa de puntillas y a nadie le importa.

      No paso de fase pronvidia a antiAMD, porque en el fondo me dan igual las dos, paso a una fase de decir libremente lo que creo con argumentos, sin que por ello me quieran mandar a la hoguera.

      Porque veo que opinar contrario no gusta y veo que los foros de opinion desaparecen, como se suele decir con los medios de comunicacion se trata de fabricar la opinion y el que se sale del redil es un radical oveja negra.
      Solo se trata de eso de poder opinar con respeto y argumentos.

      Saludos

      ¿Otra vez la tontería de ese programa? Parece mentira que se insista en usar algo tan obsoleto para hablar de la VRAM de las gráficas, cuando en realidad NO se está testando esto con esa prueba.

      Vamos a ver, ese programa, que es en modo gpgpu, lo único que hace es pedir una cantidad de RAM al sistema equivalente a la VRAM de la gráfica, y la consigue, por supuesto que sí, y tras esto hace una medida del ancho de banda a base de lecturas, escrituras, lo que sea.

      Lo que la gente OLVIDA es que al ser un programa de computación, no 3D, y tal cómo funcionan las APIs para GPGPU, cuando se solicita una cantidad de memoria X al sistema, éste si no tiene o el driver no le deja localizar TODA la VRAM que se solicita, lo que hace es asignar RAM del sistema.

      Esto es, en la GTX 970 por defecto a este programa NO le deja acceder al sector lento de la VRAM (que normalmente lo usará automáticamente el driver de la 970 según le convenga, casi seguro usando algoritmos de victim cache para almacenar ahí datos que seguramente no se vuelvan a usar o sean muy poco usados), y el programa lo que recibe del sistema es un bloque de 512 MB de RAM principal a cambio.

      Cuando se accede a ese bloque de memoria RAM, que no VRAM, el rendimiento en ancho de banda claro que baja mucho, de hecho es más lenta que acceder a la VRAM no accesible, porque ni siquiera es la VRAM.

      ¿Porqué le pasa a la Fury? Porque seguramente NO permite al sistema, en ese caso por lo menos, acceder a la libre de Dios a ese segmento, porque o lo está usando otras aplicaciones (entre otras Aero, que se come unos 200 MB de VRAM en todos los sistemas, excepto que hagas funcionar a los últimos sin él, cosa que DUDO que hagan la mayoría de usuarios), o porque al igual que la GTX 970, el driver bloquea este intento de acceso a esa parte de la VRAM, por la razón que sea que tenga el driver de AMD.

      Parece increíble que se siga con el mismo disco rayado,Fassou, en vez de llamar a gente que intenta contra-argumentar tan mal razonamiento, con este programa, tildarlos de antiAMD, habría que pensar si eres tú el anti-nvidia.

      Porque sinceramente, el argumento es pueril, o no sabes lo enormemente desactualizado que está ya y las explicaciones que se dieron sobre qué estaba pasando con ese test rápido creado por un usuario, o lo haces a propósito.

      voy a pensar que es lo primero, que estás muy desinformado sobre este caso, pero venir con el mismo disco rayado de los 3,5 GB de VRAM con las GTX 970, cansa ya. Estoy harto de ver cómo sí se usan los últimos 512 MB de VRAM en esta gráfica sin problemas en rendimiento, para ver la última re-edición del último disco de Jordie Dan, versión informática.

      Y sobre los Asnchronoys shaders, a ver si nos damos cuenta de lo siguiente:

      1.- NO es parte de ningún estándar actual DX12, de hecho se metió a última hora como algo opcional para DX12, pero ya venía de antes. Y básicamente y tal como se usa ahora, sólo sirve para sacar algo más de rendimiento en el hard de AMD (+10%, con suerte).

      2.- Para más inri, con la ya bastante jodida y decepcionante programación de DX12 (que prometía mucho pero obviaron hablar de los problemas derivados de programar para CTM), que exige básicamente programar dos paths distintos (realmente 3, pero bueno) para cada fabricante de gpus para poder usar correctamente cada hard, resulta que los async shaders son dentro de DX12 especialmente complicados de programar, y de hecho pueden BAJAR el rendimiento si te descuidas (como afirmaron los desarrolladores de Hitman), no sólo tienes que programar teniendo en cuenta a los dos fabricantes y creando posiblemente dos forks del código DX12, es que además si usas async shaders te vas a complicar la vida en cada path/fork a programar, vas a aumentar muchísimo las horas de programación, y si no lo haces bien puedes perder rendimiento.

      Y todo para una ganancia del 10% en un único fabricante que representa el 20% de fabricantes de gpus discretas. Aún menos si hablamos incluyendo el mercado de integradas que está básicamente dominado por intel (porque realmente en cpus la cosa está peor aún para AMD que en gpus).

      ¿Hay que explicar qué acaba pasando con características no-friendly, que suben poco el rendimiento, no ofrecen novedades gráficas, y además su impacto en el mercado es limitado?

      Por favor, otra vez explicar las cosas como si fuera el Día de la Marmota, no. Esto ya ha pasado antes, dejemos los discos rayados. Ya se está hablando menos de los async shaders (y de hecho parece haber un cierto retroceso en la implementación de juegos DX12, ya que sólo se están viendo títulos patrocinados, visto los problemas de los primeros… tardaremos en ver su implantación masiva).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: Podemos decir que Maxwell soporta Asynchronous?

      @Fassou:

      No entiendo esta frase que pones.

      Como supongo que el tema va por el problema de rendimiento que tiene nVIDIA en Async, parece que de primeras iban de sobrados prometiendo que iban a hacer compatibles a modelos anteriores con Kepler y bla, bla, porque contaban con poder emular por software, tocando los drivers, y que si Maxwell soporta DX12.1 y AMD todavía no.

      Peeeeero, tras las montañas de benchmarks en DX12 donde AMD le saca una cabeza a nVIDIA, ahora parece que en sus drivers se dedican a capar el Async, porque si lo dejan les baja bastante el rendimiento en DX12, y si lo fuerzas es todavía peor, porque te salen frames de los "descartados" :facepalm:

      La arquitectura de Maxwell no puede con el Async por hardware, y ya hay rumores malintencionados de que el futuro Pascal, no lo hace mucho mejor, así que o meten otro chip adicional a las tarjetas, o los de nVIDIA van a pasarlas put## en esta nueva generación.

      Pero todo son rumores y especulaciones claro 😄

      Salu2!

      Todo eso que dices sería muy bonito, si no fuera por dos cosas:

      1.- Los Async Shaders NO pertenecen a ninguno de los sets de características OBLIGATORIAS que definen tanto a 12_0 como a 12_1 (hablando en plata, los modos de funcionamiento del API donde funcionan realmente las novedades gráficas en DX12 y DX12.1, los demás modos son de "compatibilidad" y permiten funcionar, usando el API DX12, gráficsa compatibles con características gráficas más antiguas).

      2.- Los async shaders no sólo son opcionales. Es que además fueron incorporados como "feature" opcional hace poco, MUY POCO. Un año más o menos. De hecho juraría que ya se había definido la compatibilidad para 12_1 antes de que saltara a la palestra esta opción tan claramente a medida de AMD.

      Sea como sea, es interesante ver cómo la gente dedica ríos de literatura a una "feature" que realmente NO hace nada, en absoluto, sólo es una forma de optimizar la ejecución de código shader y para más inri, en ciertas arquitecturas más que en otras.

      Y sii se le suma ya las propias declaraciones de los desarrolladores que han usado los async shaders recientemente, algunos bajo el manto de AMD, diciendo poco menos que fue un infierno optimizar para este feature, y todo para obtener un 15% de mejora de rendimiento gráfico (para AMD, básicamente nada para nvidia), pues pinta como otra variopinta característica que se mete con calzador para hacer favores entre "socios" (está claro que esta inclusión a última hora de algo que está muy cercano a cómo funciona el hard de AMD, sobre todo en la consola XBOX One, no es coincidencia, aunque veo que microsoft se lo estuvo pensando muy mucho antes de meterlo, porque bien pudo meter la opción cuando publicó las características a cumplir para DX12.0).

      Vamos, mucha literatura para bien poco a nivel de rendimiento, y absolutamente nada a nivel gráfico (cero novedad o efectos nuevos implementados "gracias" a estos async shaders, lo dicho, no hace nada nuevo).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: CUInfo y el revuelo que ha montado

      Eso sí, hay que tener cuidado porque muchas intentonas pueden llevarse la sorpresa de que se habilitan CUs totalmente dañadas. El truco supuestamente está en el lugar que ocupan en cada "engine" y si son las últimas las deshabilitadas se da por supuesto que son buenas y que han sido deshabilitadas para crear productos como la Fury, etc.

      Pero cuidado, mientras que es un buen indicativo de CUs defectuosas que las deshabilitadas estén por el medio de un "engine" (batería de CUs que funcionan en un mismo bloque), también existe la posibilidad de que habilitemos alguna de las últimas bloqueadas y que también estén defectuosas.

      Así que mejor tener BIOS de reserva, dual BIOS mejor que mejor.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: [Review by ELP3] AMD Radeon FURY X

      @Handrox:

      wwwendigo En la época Fermi, yo ganaba mis 2500€/mes, hoy lucho pa llegar o pasar a los 1000€/mes :wall: El salario bajo y los precios subieron. :ffu:

      Bueno, además de eso. Estaba suponiendo el haber mantenido el mismo puesto laboral que antes de la crisis. Es mucho suponer, claro. Pero de darse, aún así habríamos perdido poder adquisitivo y más con las importaciones con el euro hecho una mierda (para algunos es "mejor" pero para los curritos no tanto, ya que consumimos muchas importaciones y no nos beneficiamos de las exportaciones directamente).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: [Review by ELP3] AMD Radeon FURY X

      ELP3:

      Las Fury no dejan de ser chips GCN 1.2, no traen ninguna novedad arquitectónica respecto a Tonga, por lo tanto, no hay nada nuevo que explotar con drivers, no nada que no estuviera pendiente de todas formas con Tonga.

      Yo no esperaría drivers milagrosos, AMD lleva sacando iteraciones muy conservadoras de sus chips, nvidia pegó un salto arquitectónico mucho más agudo en Maxwell 1.0, y de hecho el salto a 2.0 es superior a cualquier salto entre las revisiones de GCN. Mira que la estructura básica del MIMD usado en AMD no se ha tocado NI UNA COMA con GCN 1.x, mientras que con nvidia se ha tocado a éste varias veces, incluso dentro de kepler (big kepler no es igual a los demás, incluso el GK210 tiene cambios respecto a big kepler en este punto).

      Ni siquiera AMD ha balanceado temas como la teselación para que aumentara linearmente con la potencia del chip. Técnicamente hablando, Tonga y Fiji son exactamente iguales al respecto, aunque Fiji tenga mejores cifras de teselado en la práctica por tener mucha más potencia en todo lo demás (al fin y al cabo, en cualquier prueba de teselado se hace algo más que esto, se "rasteriza" el triángulo por simple que sea el proceso).

      En cambio los GM200 vs GM204, o los GK110 vs GK100, y Fermi también, todos van escalando su potencia de teselado según la potencia de la gpu.

      Handrox:

      Pocas veces he pagado más de 300€ por una gpu, sí lo he hecho varias veces por poco como con la GTX 970, y lo más "loco" ha sido pagar en su momento casi 400€ por una GTX 670 recién lanzada. Pero también es cierto que muy pocas veces las gráficas de gama media han estado claramente sobre los 200€. La GTX 560 Ti pasaba un poco, la 8800GT, idem.

      Sólo anomalías como las GTX 260 por menos de 180€ recién sacadas (la 216) se apartaban de esta regla. Pero ya antes con las gamas medias o medias-altas se podía gastar una pasta "interesante" como por la 7900 GT donde volví a rebasar los 300€.

      Pero también hay que tener en cuenta que pasan los años, los precios suben como sube la vida en general (se supone que los sueldos también, pero ya sabemos cómo va eso :ugly:), y ahora lo que antes eran 200€ te piden 250 o 300€ siendo "el mismo precio" con la inflación acumulada.

      Si se le añade la devaluación del euro, así se acaba de gestar "el monstruo" de todas las importaciones. Más el IVA que por supuesto nos lo meten más grande que nunca, para que "dilatemos" nuestros bolsillos.

      Si estuviéramos en época pre-crisis y con el euro-dólar a casi 1,50, veríamos cosas como:

      • Las GTX 980 quizás rozando los 400€, o por poco más (precio actual, 499$).

      • Las GTX 980 Ti sobre 550€, más o menos.

      • Las GTX 970 por 250€.

      Hacer la misma cuenta para con los precios de AMD.

      Puede sonar a "locura", pero es lo que ha pasado con los precios en los últimos años respecto al mercado americano, mira que ni me molesto en hablar de que los precios con la inflación en EEUU de por sí equivalen a precios más bajos antes, no. Sólo adapto un poco el MSRP americano a nuestros precios tal cual se hacía la conversión aquí antes (que no era cambio 1:1 nunca, más bien algo estilo 1:1,2 a nuestro favor).

      Si miramos los precios así ya no nos parecen tan "alzistas", lo que hay que ir entendiendo es que la UE está sufriendo un encarecimiento de los productos importados, sobre todo.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: [Review by ELP3] AMD Radeon FURY X

      @Handrox:

      Es una GTX 980 G1 Fjavi…. Es la misma de la review que han echo ellos..

      PS: Quiero cambiar de grafica tambien, pero no me animo a pagar +300€ en nada, por ese precio esta complicado encontrar algo que justifique salir de la vieja GTX 680 🙂

      Hombre, te aseguro que la GTX 980 es bastante más rápida (más que nada porque he pasado por una GTX 670, 770 y por la 970, y el último salto se notó bastante), con claridad además.

      Otro asunto es que ese cambio no te valga los +300€ que es algo personal, pero no veo tampoco tanta necesidad de cambiar compulsivamente (aunque yo haya hecho los cambios de antes, en ningún caso fue por "necesidad" real si no por ganas de trastear y ver cómo iba mejorando el tema, a veces con el atractivo de conseguir juegos que tenía fichados sí o sí, como es con la GTX 770).

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: GTX 960 vs R9 380

      ¡Vaya bicha!

      ¿Qué tal sube, está libre de zumbido eléctrico? Tiene buena pinta.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: GTX 960 vs R9 380

      @Rules:

      Ostia, ahora justamente han bajado unos eurillos la 290 OC de Asus…. y con eso que me comentas no se que hacer si la 970 o la 290 OC esta Asus Radeon R9 290 DirectCU II OC 4GB GDDR5 Tarjeta Gráfica

      Con cual te quedarias tu?

      Saludos!

      Particularmente, ni jarto de vino pillaría por ese precio una R9 290, una tarjeta claramente más lenta que las GTX 970, peores consumos y menos preparada para funciones futuras, sin contar el potencial de OC que con las GTX 970 es amplio y muy fácil de explotar sin menoscabos como aumentos bestiales de consumo, etc, además de que Asus parece que ha tenido problemas justo con ese modelo en el sistema de disipación y su montaje. Yo la preferiría a una Sapphire, pero por los foros parece haber quejas con este modelo.

      Si sólo voy a ahorrar 40€ contra una GTX 970, la opción es…. la GTX 970. Oh sí, incluso siendo 3,5 GB + 0,5 GB. Si a la Fury le sirve usar 4 GB además al estilo de las GTX 970 (como si fueran 3,5 GB), más justificado será en gráficas de menor potencia, ¿no, no?:troll:

      Una 290 que no esté cerca de 250€ hoy en día, no debería ser una opción.

      PD: Aún encima con la Windforce 3x como opción, que es una tarjeta muy buena dentro de las GTX 970 de "acceso". La tiene un colega y la disfruta cosa fina.

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: GTX 960 vs R9 380

      @whoololon:

      Si estás al corriente del problema de su memoria, pues nada campeón: ¡A jugaaaar! 🍺🍺🍺;D

      No me lo puedo creer… ¿esto viene del mismo que decía esto unos comentarios más atrás?:

      Si vas a contestar a Rules acerca de su consulta, esa no es la manera.

      Si quieres dejarme por ignorante (cosa nada difícil por otra parte), demostrar que dominas el tema y además quedar como un señor, esa no es la manera.

      Si quieres reventar el hilo, lo estás haciendo muy bien.

      No se puede ser tan cínico. Primero quejarse porque hagan una réplica mostrando que no es cierto lo que dice, y después tras quejarse porque parece que le molesta que le ridiculicen (lo cual no es cierto, aquí nadie le ha llamado ni "campeón" ni historias, aunque mejor sería no soltar bombas como que la R9 380 es mucho más rápida que la GTX 960 y ya vería que nadie le replicaría señalando tremendo error), va y continúa el hilo pero soltando gracietas que son iguales o peores que las mismas de las que se queja.

      Por cierto, ¿qué problema dice usted que tienen las GTX 960 con su memoria? Ilústreme (hasta este comentario NO se está hablando de la GTX 970, si no de la GTX 960 y las 380, ya sabe, ya que le importa tanto la pregunta y temática consultada por Rules, ATENGASE a ésta).

      Por cierto, aunque le duela en la mismísima alma, la GTX 970 aún coja con el tema de la memoria como pretende colar (que no la GTX 960), resulta ser una bala con memoria de sobra. Uno que prueba y conoce bien esas cosas de las que aquí se habla. :ugly:

      publicado en Tarjetas Gráficas
      W
      wwwendigo
    • RE: GTX 960 vs R9 380

      Claramente mucho menos potente:

      Ahí está la 380 antes del renombrado y que la subieran un poquito de tuercas, léase R9 285. Que si a alguien le place hacer comparaciones "justas", que se coja una GTX 960 con OC de fábrica guapo, ya no digo una G1 que ya es pasarse, y no la de referencia usada en TPU!, a ver qué pasa.

      Total, ya sabemos que las GTX 960 no suben una mierda de OC claro, y las 380 van "sobradísimas". :troll:

      Mitos, mitos everywhere.:wall:

      publicado en Tarjetas Gráficas
      W
      wwwendigo