Podemos decir que Maxwell soporta Asynchronous?


  • 0

    Buenas chic@s, hoy me depare con un PDF de Microsoft de la SIGGRAPH2015 donde hay unas dispositivas hablando del Asynchronous en Direct3D, en su ejemplo pratico ellos usan una GTX 970 para demostrar las queue, 3D, Copy e Compute ademas de las draws del CPU. Podemos con eso por una piedra en ese tema o seguimos igual?

    Link del PDF -> http://nextgenapis.realtimerendering.com/presentations/3_Boyd_Direct3D12.pptx

    Link para otros PDF's de interese -> http://nextgenapis.realtimerendering.com/

    Saludos.



  • 1

    @Handrox:

    Podemos con eso por una piedra en ese tema o seguimos igual?

    No entiendo esta frase que pones.

    Como supongo que el tema va por el problema de rendimiento que tiene nVIDIA en Async, parece que de primeras iban de sobrados prometiendo que iban a hacer compatibles a modelos anteriores con Kepler y bla, bla, porque contaban con poder emular por software, tocando los drivers, y que si Maxwell soporta DX12.1 y AMD todavía no.

    Peeeeero, tras las montañas de benchmarks en DX12 donde AMD le saca una cabeza a nVIDIA, ahora parece que en sus drivers se dedican a capar el Async, porque si lo dejan les baja bastante el rendimiento en DX12, y si lo fuerzas es todavía peor, porque te salen frames de los "descartados" :facepalm:

    La arquitectura de Maxwell no puede con el Async por hardware, y ya hay rumores malintencionados de que el futuro Pascal, no lo hace mucho mejor, así que o meten otro chip adicional a las tarjetas, o los de nVIDIA van a pasarlas put## en esta nueva generación.

    Pero todo son rumores y especulaciones claro :D

    Salu2!



  • 2

    @Fassou:

    No entiendo esta frase que pones.

    Como supongo que el tema va por el problema de rendimiento que tiene nVIDIA en Async, parece que de primeras iban de sobrados prometiendo que iban a hacer compatibles a modelos anteriores con Kepler y bla, bla, porque contaban con poder emular por software, tocando los drivers, y que si Maxwell soporta DX12.1 y AMD todavía no.

    Peeeeero, tras las montañas de benchmarks en DX12 donde AMD le saca una cabeza a nVIDIA, ahora parece que en sus drivers se dedican a capar el Async, porque si lo dejan les baja bastante el rendimiento en DX12, y si lo fuerzas es todavía peor, porque te salen frames de los "descartados" :facepalm:

    La arquitectura de Maxwell no puede con el Async por hardware, y ya hay rumores malintencionados de que el futuro Pascal, no lo hace mucho mejor, así que o meten otro chip adicional a las tarjetas, o los de nVIDIA van a pasarlas put## en esta nueva generación.

    Pero todo son rumores y especulaciones claro :D

    Salu2!

    No te quede con esa frase, es lo de menos. ;D

    Bueno, vemos una dispositiva de M$ demostrando el Async en hardware NV, eso me llamo la atención porque lo normal seria allí usar um hardware AMD, que dicen ser el único compatible con ese recurso. Al ver ese PDF de M$, que huge del sensacionalismo y parcialidad de wccftech y extremetech, trayendo una información diferente de todo hasta el momento, donde en el 2015 M$ usaba una GTX 970 para enseñar lo que seria el Asynchronous.

    Por lo que yo he entendido el tema va mal por 2 motivos, primero las queue necesitan ser preparadas de acuerdo con cada hardware(AMD&NV) por distintas características de arquitectura(costa mucho hacerlo) y segunda es que eso en Maxwell no trae resultados suficientemente buenos, aun que bien aplicado porque el chip ya trabaja a tope, sin dejar SMX ociosos.

    Sobre AMD sacar una cabeza a NV, hasta el momento vimos trabajos (con perdón) puercos usando el DX12, usar Hitman, Ashes, GOW o Tomb Raider como base de algo es muy precipitado.

    Saludos.



  • 3

    @Fassou:

    No entiendo esta frase que pones.

    Como supongo que el tema va por el problema de rendimiento que tiene nVIDIA en Async, parece que de primeras iban de sobrados prometiendo que iban a hacer compatibles a modelos anteriores con Kepler y bla, bla, porque contaban con poder emular por software, tocando los drivers, y que si Maxwell soporta DX12.1 y AMD todavía no.

    Peeeeero, tras las montañas de benchmarks en DX12 donde AMD le saca una cabeza a nVIDIA, ahora parece que en sus drivers se dedican a capar el Async, porque si lo dejan les baja bastante el rendimiento en DX12, y si lo fuerzas es todavía peor, porque te salen frames de los "descartados" :facepalm:

    La arquitectura de Maxwell no puede con el Async por hardware, y ya hay rumores malintencionados de que el futuro Pascal, no lo hace mucho mejor, así que o meten otro chip adicional a las tarjetas, o los de nVIDIA van a pasarlas put## en esta nueva generación.

    Pero todo son rumores y especulaciones claro :D

    Salu2!

    Todo eso que dices sería muy bonito, si no fuera por dos cosas:

    1.- Los Async Shaders NO pertenecen a ninguno de los sets de características OBLIGATORIAS que definen tanto a 12_0 como a 12_1 (hablando en plata, los modos de funcionamiento del API donde funcionan realmente las novedades gráficas en DX12 y DX12.1, los demás modos son de "compatibilidad" y permiten funcionar, usando el API DX12, gráficsa compatibles con características gráficas más antiguas).

    2.- Los async shaders no sólo son opcionales. Es que además fueron incorporados como "feature" opcional hace poco, MUY POCO. Un año más o menos. De hecho juraría que ya se había definido la compatibilidad para 12_1 antes de que saltara a la palestra esta opción tan claramente a medida de AMD.

    Sea como sea, es interesante ver cómo la gente dedica ríos de literatura a una "feature" que realmente NO hace nada, en absoluto, sólo es una forma de optimizar la ejecución de código shader y para más inri, en ciertas arquitecturas más que en otras.

    Y sii se le suma ya las propias declaraciones de los desarrolladores que han usado los async shaders recientemente, algunos bajo el manto de AMD, diciendo poco menos que fue un infierno optimizar para este feature, y todo para obtener un 15% de mejora de rendimiento gráfico (para AMD, básicamente nada para nvidia), pues pinta como otra variopinta característica que se mete con calzador para hacer favores entre "socios" (está claro que esta inclusión a última hora de algo que está muy cercano a cómo funciona el hard de AMD, sobre todo en la consola XBOX One, no es coincidencia, aunque veo que microsoft se lo estuvo pensando muy mucho antes de meterlo, porque bien pudo meter la opción cuando publicó las características a cumplir para DX12.0).

    Vamos, mucha literatura para bien poco a nivel de rendimiento, y absolutamente nada a nivel gráfico (cero novedad o efectos nuevos implementados "gracias" a estos async shaders, lo dicho, no hace nada nuevo).



  • 4

    Ahora ya tenemos Async Shader en DX11 -> http://humus.name/Articles/Persson_LowlevelShaderOptimization.pdf

    Shader Model 6 va funcionar en la tarjetas FL12_1, usará una nueva lenguaje open source basada en C y una LLVM con codigos pré-compilado como Vulkan.



  • 5

    @Handrox:

    No te quede con esa frase, es lo de menos. ;D

    Bueno, vemos una dispositiva de M$ demostrando el Async en hardware NV, eso me llamo la atención porque lo normal seria allí usar um hardware AMD, que dicen ser el único compatible con ese recurso. Al ver ese PDF de M$, que huge del sensacionalismo y parcialidad de wccftech y extremetech, trayendo una información diferente de todo hasta el momento, donde en el 2015 M$ usaba una GTX 970 para enseñar lo que seria el Asynchronous.

    Por lo que yo he entendido el tema va mal por 2 motivos, primero las queue necesitan ser preparadas de acuerdo con cada hardware(AMD&NV) por distintas características de arquitectura(costa mucho hacerlo) y segunda es que eso en Maxwell no trae resultados suficientemente buenos, aun que bien aplicado porque el chip ya trabaja a tope, sin dejar SMX ociosos.

    Sobre AMD sacar una cabeza a NV, hasta el momento vimos trabajos (con perdón) puercos usando el DX12, usar Hitman, Ashes, GOW o Tomb Raider como base de algo es muy precipitado.

    Saludos.

    Para que lo quieres?
    Yo lo que quiero son pruebas, juegos DX12 y a ver que ocurre, me da igual los Draw call,los shader esos, me daba igual el Dx10.1.
    Lo que hace falta es demostrar que sirve para algo, que ya son muchas veces, el Dx10.1 seria una ventaja segun se decia, que al final no se vio, el Mantle, los draw call.
    Lo mejor es el Tiempo que ponga las cosas en su sitio, y si AMD destaca frente a Nvidia yo me alegro si al final puedo comprar mas barato y potente.
    Ojala las Polaris esas pongan en aprietos a las Pascal y Nvidia no pueda colar las gamas medias como gamas altas, ya de paso que ponga en aprietos a Intel con los Zen y se tenga que bajar de la burra y permitir OC, vender mas barato.
    Al final es eso lo que interesa mas competencia.

    saludos



  • 6

    Parece que va a llover… ¬¬



  • 7

    Buscaremos refugio y esperaremos que escampe



  • 8

    @fjavi:

    Para que lo quieres?
    Yo lo que quiero son pruebas, juegos DX12 y a ver que ocurre, me da igual los Draw call,los shader esos, me daba igual el Dx10.1.
    Lo que hace falta es demostrar que sirve para algo, que ya son muchas veces, el Dx10.1 seria una ventaja segun se decia, que al final no se vio, el Mantle, los draw call.
    Lo mejor es el Tiempo que ponga las cosas en su sitio, y si AMD destaca frente a Nvidia yo me alegro si al final puedo comprar mas barato y potente.
    Ojala las Polaris esas pongan en aprietos a las Pascal y Nvidia no pueda colar las gamas medias como gamas altas, ya de paso que ponga en aprietos a Intel con los Zen y se tenga que bajar de la burra y permitir OC, vender mas barato.
    Al final es eso lo que interesa mas competencia.

    saludos

    Que hay viejo fjavi, como va todo tio?

    No creo que lo de "haber competencia" tenga algo que ver con el async. El tema de Async de aqui unos dias se pone frio, cuando la prensa rosa de la tecnologia se dedique hablar del Shader Model 6, el Async volvera a ser lo que siempre fue, nada. Como el chip Polaris no tenga instrucciones DX12.1, sera una verdadera mierda, porque NV va cobrar una ventaja descomunal en posibilidades y performance.

    Volviendo al (santo)Async Shader, me molesta leer tanta desinformación cultivada por Extremetech, wcctech e un tal Mohigan, lo peor es que sus historietas calo en el medio, veo gente con vasto conocimiento repetindo lo que esos salseros soltam por ahí. Sin ningún criterio informativo, apenas las ganas de confundir, engañar.

    Saludos xiquet!;D



  • 9

    @Handrox:

    Que hay viejo fjavi, como va todo tio?

    No creo que lo de "haber competencia" tenga algo que ver con el async. El tema de Async de aqui unos dias se pone frio, cuando la prensa rosa de la tecnologia se dedique hablar del Shader Model 6, el Async volvera a ser lo que siempre fue, nada. Como el chip Polaris no tenga instrucciones DX12.1, sera una verdadera mierda, porque NV va cobrar una ventaja descomunal en posibilidades y performance.

    Volviendo al (santo)Async Shader, me molesta leer tanta desinformación cultivada por Extremetech, wcctech e un tal Mohigan, lo peor es que sus historietas calo en el medio, veo gente con vasto conocimiento repetindo lo que esos salseros soltam por ahí. Sin ningún criterio informativo, apenas las ganas de confundir, engañar.

    Saludos xiquet!;D

    Yo es que pienso lo mismo ahora sea shader asincronos o sea shader model 6, lo que me refiero que todo esto se debe ver en juegos, ahora se puede hablar mucho pero es el tiempo el que va a decir quien va mejor, o incluso si van igual.
    Me da igual que el humo lo saque Nvidia o lo saque AMD aqui hasta que no demuestren en juegos nuevos me da igual lo que digan ahora, por que al final siempre es lo mismo.
    Nos cuentas maravillas que luego no vemos y quiza ese Dx12.1 al final sea otro fiasco como Dx10.1, aqui ya solo me creo lo que veo y para verlo espero que saquen tarjetas y ver el rendimiento en distintos juegos, que al final es lo que interesa.
    Yo ahora estoy aqui con un Pc que me hice de una 960 de 4GB y no parece muy oceadora, una Asus Strix, pero solo por que me tenian que devolver dinero y me salio muy bien.
    Pero es pequiñita y fresca que es lo que queria, hacia mucho que no tenia tarjetas de esas.

    Saludos



  • 10

    @fjavi:

    Yo es que pienso lo mismo ahora sea shader asincronos o sea shader model 6, lo que me refiero que todo esto se debe ver en juegos, ahora se puede hablar mucho pero es el tiempo el que va a decir quien va mejor, o incluso si van igual.
    Me da igual que el humo lo saque Nvidia o lo saque AMD aqui hasta que no demuestren en juegos nuevos me da igual lo que digan ahora, por que al final siempre es lo mismo.
    Nos cuentas maravillas que luego no vemos y quiza ese Dx12.1 al final sea otro fiasco como Dx10.1, aqui ya solo me creo lo que veo y para verlo espero que saquen tarjetas y ver el rendimiento en distintos juegos, que al final es lo que interesa.
    Yo ahora estoy aqui con un Pc que me hice de una 960 de 4GB y no parece muy oceadora, una Asus Strix, pero solo por que me tenian que devolver dinero y me salio muy bien.
    Pero es pequiñita y fresca que es lo que queria, hacia mucho que no tenia tarjetas de esas.

    Saludos

    No puedo estar en desacuerdo con lo que dices, es la realidad, como una casa. Pero, que seria de ese medio sin toda esa salsa rosa? jajaja

    Toda esa polemica es montada para fomentar ventas, fijate que con esa del Async, AMD quito de encima un montón de sus refritos, y se haces un zoom mas profundo, esa polemica empeza justo cuando sale unos números que daban a NV mas del 80% de share, desde entonces las reviews son claramente pro AMD y la perita dulce que era el Maxwell se convierte en manzana podrida. Es un juego muy bien planeado donde solo pierde un lado, el del consumidor.

    Saludos.



  • 11

    Es que es un complot, porque lo de las GTX970 y el problema con su último GB de memoria, eso no importa :facepalm:

    Y por supuesto, AMD siempre buscando el lado cómico de las cosas :D

    Qué malotes :troll:

    Salu2!



  • 12

    @Fassou:

    Es que es un complot, porque lo de las GTX970 y el problema con su último GB de memoria, eso no importa :facepalm:

    Y por supuesto, AMD siempre buscando el lado cómico de las cosas :D

    Qué malotes :troll:

    Salu2!

    El problema no lo se pero el programa si esta aqui y se supone que a la Fury le pasa lo mismo
    http://www11.pic-upload.de/28.06.15/3v87mcvjenj.jpg
    Pero eso no debe interesar, aunque yo mirando por mi interes si quiero competencia pero desde luego muchas web son ya como los medios de comunicacion, te debes fiar de lo justo y menos.

    saludos
    @Handrox:

    No puedo estar en desacuerdo con lo que dices, es la realidad, como una casa. Pero, que seria de ese medio sin toda esa salsa rosa? jajaja

    Toda esa polemica es montada para fomentar ventas, fijate que con esa del Async, AMD quito de encima un montón de sus refritos, y se haces un zoom mas profundo, esa polemica empeza justo cuando sale unos números que daban a NV mas del 80% de share, desde entonces las reviews son claramente pro AMD y la perita dulce que era el Maxwell se convierte en manzana podrida. Es un juego muy bien planeado donde solo pierde un lado, el del consumidor.

    Saludos.

    Yo como hace tiempo que no creo ni a las web ni a los foros ni a los medios de comunicacion, hago caso a personas que lo prueban y no a todas.
    De todas formas a mi me interesa que vendan, si para ello tienen que vender la moto y decir que la nueva Fury esa dual consume menos que su parte monogpu ( segun cierta web de noticias) y tiene tres conectores de 8 pines de adorno, como no consume no le hacen falta.
    Es cosa de la gente abrir los ojos o seguir creyendo ese mundo maravilloso que le cuentan.
    Hay cosas muy evidentes.
    Aunque me interesaaria mucho mas que de verdad saquen tarjetas y procesadores en condiciones y supongan un peligro de verdad para Intel y Nvidia, por mucho que digan yo no veo una competencia eficaz de tarjetas con 512 bits TDP muy altos y 8GB de memoria para competir contra tarjetas como la 970 que les debe salir bastante barata a Nvidia, se podria permitir el lujo de bajar la 970 a 200€, las 390 y 390x deben ser mas caras de fabricar.
    Con Intel ya mejor ni hablar por que esta abusando un monton, por eso no me interesa que se debilite mucho AMD y pueda reaccionar tanto en graficas como procesadores.
    Saludos



  • 13

    @fjavi:

    El problema no lo se pero el programa si esta aqui y se supone que a la Fury le pasa lo mismo
    Pero eso no debe interesar, aunque yo mirando por mi interes si quiero competencia pero desde luego muchas web son ya como los medios de comunicacion, te debes fiar de lo justo y menos.

    saludos

    Yo como hace tiempo que no creo ni a las web ni a los foros ni a los medios de comunicacion, hago caso a personas que lo prueban y no a todas.
    De todas formas a mi me interesa que vendan, si para ello tienen que vender la moto y decir que la nueva Fury esa dual consume menos que su parte monogpu ( segun cierta web de noticias) y tiene tres conectores de 8 pines de adorno, como no consume no le hacen falta.
    Es cosa de la gente abrir los ojos o seguir creyendo ese mundo maravilloso que le cuentan.
    Hay cosas muy evidentes.
    Aunque me interesaaria mucho mas que de verdad saquen tarjetas y procesadores en condiciones y supongan un peligro de verdad para Intel y Nvidia, por mucho que digan yo no veo una competencia eficaz de tarjetas con 512 bits TDP muy altos y 8GB de memoria para competir contra tarjetas como la 970 que les debe salir bastante barata a Nvidia, se podria permitir el lujo de bajar la 970 a 200€, las 390 y 390x deben ser mas caras de fabricar.
    Con Intel ya mejor ni hablar por que esta abusando un monton, por eso no me interesa que se debilite mucho AMD y pueda reaccionar tanto en graficas como procesadores.
    Saludos

    Desconozco si las Fury tienen también algún problema (tendría que tocarme la lotería para que mirase con atención ese segmento), pero por lo que veo estas pasando de una fase pro-nVIDIA a otra más ¿ anti-AMD ? <:(

    Relájate, Hombre :fumeta:

    Salu2!



  • 14

    @Fassou:

    Desconozco si las Fury tienen también algún problema (tendría que tocarme la lotería para que mirase con atención ese segmento), pero por lo que veo estas pasando de una fase pro-nVIDIA a otra más ¿ anti-AMD ? <:(

    Relájate, Hombre :fumeta:

    Salu2!

    Yo la verdad estoy siempre relajado, pero hay cosas que no me gustan, la cosa a quedado con los 3.5gb de la 970, por ese programa pero hace lo mismo en la fury y pasa de puntillas y a nadie le importa.

    No paso de fase pronvidia a antiAMD, porque en el fondo me dan igual las dos, paso a una fase de decir libremente lo que creo con argumentos, sin que por ello me quieran mandar a la hoguera.

    Porque veo que opinar contrario no gusta y veo que los foros de opinion desaparecen, como se suele decir con los medios de comunicacion se trata de fabricar la opinion y el que se sale del redil es un radical oveja negra.
    Solo se trata de eso de poder opinar con respeto y argumentos.

    Saludos



  • 15

    Por un lado, los memes sobre la GTX970 y los 4GB fantasma es una respuesta al comentario de Handrox que le precede.

    Sobre la Fury, realmente no tengo ni idea, pero como la considero un engendro como las Titan, el que se gaste esa pasta en una gráfica, es de suponer que se habrá informado, o que si es para hacer el pijo, pues entra en la categoría de los que se compran el superdeportivo y lo estrellan el primer día. Yo nunca lo haría, ellos sabrán.

    Respecto a lo de expresar tu opinión, no veo ningún problema en ello, y creo que ya lo has hecho cuando has dicho : "Yo es que pienso lo mismo ahora sea shader asincronos o sea shader model 6, lo que me refiero que todo esto se debe ver en juegos, ahora se puede hablar mucho pero es el tiempo el que va a decir quien va mejor, o incluso si van igual."

    Pero como supongo que la idea del post no es con la intención de esperar a tener las gráficas en su casa dentro de unos meses y poder hacer las pruebas él mismo, no veo dónde está la aportación en tu comentario.

    Si vas a desviar el tema principal (tú o cualquiera), a otros que ni tan siquiera ha sacado el autor original, pues mejor abres otro post.

    Salu2!



  • 16

    @fjavi:

    Yo la verdad estoy siempre relajado, pero hay cosas que no me gustan, la cosa a quedado con los 3.5gb de la 970, por ese programa pero hace lo mismo en la fury y pasa de puntillas y a nadie le importa.

    No paso de fase pronvidia a antiAMD, porque en el fondo me dan igual las dos, paso a una fase de decir libremente lo que creo con argumentos, sin que por ello me quieran mandar a la hoguera.

    Porque veo que opinar contrario no gusta y veo que los foros de opinion desaparecen, como se suele decir con los medios de comunicacion se trata de fabricar la opinion y el que se sale del redil es un radical oveja negra.
    Solo se trata de eso de poder opinar con respeto y argumentos.

    Saludos

    ¿Otra vez la tontería de ese programa? Parece mentira que se insista en usar algo tan obsoleto para hablar de la VRAM de las gráficas, cuando en realidad NO se está testando esto con esa prueba.

    Vamos a ver, ese programa, que es en modo gpgpu, lo único que hace es pedir una cantidad de RAM al sistema equivalente a la VRAM de la gráfica, y la consigue, por supuesto que sí, y tras esto hace una medida del ancho de banda a base de lecturas, escrituras, lo que sea.

    Lo que la gente OLVIDA es que al ser un programa de computación, no 3D, y tal cómo funcionan las APIs para GPGPU, cuando se solicita una cantidad de memoria X al sistema, éste si no tiene o el driver no le deja localizar TODA la VRAM que se solicita, lo que hace es asignar RAM del sistema.

    Esto es, en la GTX 970 por defecto a este programa NO le deja acceder al sector lento de la VRAM (que normalmente lo usará automáticamente el driver de la 970 según le convenga, casi seguro usando algoritmos de victim cache para almacenar ahí datos que seguramente no se vuelvan a usar o sean muy poco usados), y el programa lo que recibe del sistema es un bloque de 512 MB de RAM principal a cambio.

    Cuando se accede a ese bloque de memoria RAM, que no VRAM, el rendimiento en ancho de banda claro que baja mucho, de hecho es más lenta que acceder a la VRAM no accesible, porque ni siquiera es la VRAM.

    ¿Porqué le pasa a la Fury? Porque seguramente NO permite al sistema, en ese caso por lo menos, acceder a la libre de Dios a ese segmento, porque o lo está usando otras aplicaciones (entre otras Aero, que se come unos 200 MB de VRAM en todos los sistemas, excepto que hagas funcionar a los últimos sin él, cosa que DUDO que hagan la mayoría de usuarios), o porque al igual que la GTX 970, el driver bloquea este intento de acceso a esa parte de la VRAM, por la razón que sea que tenga el driver de AMD.

    Parece increíble que se siga con el mismo disco rayado,Fassou, en vez de llamar a gente que intenta contra-argumentar tan mal razonamiento, con este programa, tildarlos de antiAMD, habría que pensar si eres tú el anti-nvidia.

    Porque sinceramente, el argumento es pueril, o no sabes lo enormemente desactualizado que está ya y las explicaciones que se dieron sobre qué estaba pasando con ese test rápido creado por un usuario, o lo haces a propósito.

    voy a pensar que es lo primero, que estás muy desinformado sobre este caso, pero venir con el mismo disco rayado de los 3,5 GB de VRAM con las GTX 970, cansa ya. Estoy harto de ver cómo sí se usan los últimos 512 MB de VRAM en esta gráfica sin problemas en rendimiento, para ver la última re-edición del último disco de Jordie Dan, versión informática.

    Y sobre los Asnchronoys shaders, a ver si nos damos cuenta de lo siguiente:

    1.- NO es parte de ningún estándar actual DX12, de hecho se metió a última hora como algo opcional para DX12, pero ya venía de antes. Y básicamente y tal como se usa ahora, sólo sirve para sacar algo más de rendimiento en el hard de AMD (+10%, con suerte).

    2.- Para más inri, con la ya bastante jodida y decepcionante programación de DX12 (que prometía mucho pero obviaron hablar de los problemas derivados de programar para CTM), que exige básicamente programar dos paths distintos (realmente 3, pero bueno) para cada fabricante de gpus para poder usar correctamente cada hard, resulta que los async shaders son dentro de DX12 especialmente complicados de programar, y de hecho pueden BAJAR el rendimiento si te descuidas (como afirmaron los desarrolladores de Hitman), no sólo tienes que programar teniendo en cuenta a los dos fabricantes y creando posiblemente dos forks del código DX12, es que además si usas async shaders te vas a complicar la vida en cada path/fork a programar, vas a aumentar muchísimo las horas de programación, y si no lo haces bien puedes perder rendimiento.

    Y todo para una ganancia del 10% en un único fabricante que representa el 20% de fabricantes de gpus discretas. Aún menos si hablamos incluyendo el mercado de integradas que está básicamente dominado por intel (porque realmente en cpus la cosa está peor aún para AMD que en gpus).

    ¿Hay que explicar qué acaba pasando con características no-friendly, que suben poco el rendimiento, no ofrecen novedades gráficas, y además su impacto en el mercado es limitado?

    Por favor, otra vez explicar las cosas como si fuera el Día de la Marmota, no. Esto ya ha pasado antes, dejemos los discos rayados. Ya se está hablando menos de los async shaders (y de hecho parece haber un cierto retroceso en la implementación de juegos DX12, ya que sólo se están viendo títulos patrocinados, visto los problemas de los primeros… tardaremos en ver su implantación masiva).



  • 17

    @wwwendigo:

    Parece increíble que se siga con el mismo disco rayado, Fassou, en vez de llamar a gente que intenta contra-argumentar tan mal razonamiento, con este programa, tildarlos de antiAMD, habría que pensar si eres tú el anti-nvidia.

    Porque sinceramente, el argumento es pueril, o no sabes lo enormemente desactualizado que está ya y las explicaciones que se dieron sobre qué estaba pasando con ese test rápido creado por un usuario, o lo haces a propósito.

    voy a pensar que es lo primero, que estás muy desinformado sobre este caso, pero venir con el mismo disco rayado de los 3,5 GB de VRAM con las GTX 970, cansa ya. Estoy harto de ver cómo sí se usan los últimos 512 MB de VRAM en esta gráfica sin problemas en rendimiento, para ver la última re-edición del último disco de Jordie Dan, versión informática.

    Te contesto por alusiones.

    Una cosa es que ese programa que ni conozco ni uso, no sea la forma adecuada de demostrar problemas de rendimiento en la memoria de una gráfica, y otra muy distinta negar que nVIDIA mintió sobre las especificaciones de su gráfica GTX970, hasta que se encontró que la denunciaban por ello.

    El primer meme habla de problemas. Y si mintieron sobre las características del producto, sin duda los hay, y el segundo es la última imagen de un video promocional de la propia AMD, "animando" a que los propietarios de gráficas GTX970 que acababan de recibir confirmación de varios ensambladores y distribuidores de poder devolverlas, lo hiciesen para comprar una Radeon R290X.

    Evidentemente eres libre de pensar lo que quieras, lo que incluye pensar si me gusta más nVIDIA, AMD, Intel, Hacendado o la empresa que te parezca.

    Salu2!





Has perdido la conexión. Reconectando a Hardlimit.