Asombroso!! - Las Geforce 6800 SIGUEN sin ser compatibles 100% con Direct X 9 y PS2.0


  • 0

    Nvidia ha quitado lo de FX de su nombre ante la mala experiencia y problemas que han tenido con estas tarjetas y supongo que no quieren que se asocien estas nuevas con las FX que solo se llaman Geforce 6800

    Pues si querían que no se las asocie, lo primero que tendrían que haber hecho es solucionar todos los problemas que tenían las FX y copiar e imitar todas las prestaciones que ofrecen las Radeon de ATI que ya son desde hace tiempo (al menos desde la serie 9.xxx) totalmente y 100 % compatibles con Direct X 9 y HLSL, HDR y PS 2.0

    Me he quedado muy asombrado al comprobar que las 6800 SIGUEN SIN SER 100 % COMPATIBLES DIRECT X 9 !!!!!!!!!! y SIGUEN EXACTAMENTE IGUAL EN SOPORTE HLSL y HDR que las Geforce FX :o :confused: :o :D :D , y digo que siguen igual porque siguen fallando en 7 de los 23 test igual que las FX5900.

    Y esto se demuestra claramente en el benchmark del SHADERMARK 2.0 que han hecho en la web de Tech Report que podeis ver aqui

    http://techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13

    Una de las cosas que tenían de malo las FX y que ha sido para hacer muchas bromas en varias webs, es que las FX no eran 100% compatibles con Direct X 9 y que tenían problemas con los HLSL y HDR como se pudo ver en el HAlf Life 2 y en el Shadermark donde no podía hacer funcionar 9 de los 23 test (7 en la FX5900) y también en el benchmark de HDR daba error

    Los comentarios sobre esta incompatibilidad la podeis leer en :ESTA RAMA

    Pienso que aunque han mejorado frente a las FX, Nvidia la sigue cagando porque siguen igual en este aspecto:D

    Si bien han mejorado bastante en el soporte de los PS2.0 como se ve en esta misma prueba de esa web y ahora van mejor, TODAVIA siguen teniendo problemas con partes del HLSL y los PS2.0 ya que siguen siendo incompatibles y poniendo "SHADER NOT SUPPORTED" :rolleyes: que mal queda eso en una tarjeta de última generación que cuesta bastante. increible que no lo hayan corregido

    ¿ Y porque es importante esto ?

    Pues porque el futuro de los juegos, demos y benchmarks pasa por la programación de los HLSL y PS 2.0 como ya ha anunciado Futuremark que ha comunicado que su próximo 3D Mark 2004 va a ser programado en Direct X 9 y usando estos nuevos HLSL y PS 2.0 ampliamente.

    Y ya se demostró con el juego Half life 2 que las FX daban problemas con los efectos HDR y de HLSL que incorporaba y que era incompatible. Y que era un problema de hardware, y se suponía que en la próxima generación de tarjetas se arreglaría, PERO NO LO HAN HECHO!!!! :confused:

    Y teniendo en cuenta que han dicho que el Direct X 9 todavía seguirá hasta el 2006 cuando salga el windows longhorn pues me parece que se tendrían que haber preocupado un poco en arreglarlo y ser 100% compatibles como ATI

    ¿ Y que va a hacer Nvidia con los programas y juegos que usen estas partes del Direct X 9, HLSL y PS2.0 que las 6800 no llevan ? :confused:

    Ya se empezará a comprobar cuando pronto salga el Half Life 2 y su benchmark , y el próximo Shadermark 2.1 y el futuro Shaderworks , y también con el 3D Mark 2004 y otros juegos y programas que usen estas funciones que las 6800 no llevan

    Y si alguien piensa que esto está basado solo en la prueba del shadermark 2.0, no es verdad ya que Valve en una conferencia que dio lo explico claramente y dio ejemplos de como los graficos que habían creado con las ATI no iban en las FX por los problemas del HLSL y que tendrían que quitarlos en las FX o programar otros similares pero que no darían el mismo efecto

    Yo seguiré con ATI que sin duda es la mejor , y que se va demostrar aún más con las X800 :sisi



  • 1

    Publicado originalmente por SpaceRay
    **
    Ya se empezará a comprobar cuando pronto salga el Half Life 2 y su benchmark**

    :D :D :D :D :D



  • 2

    Pues parece que todavia no les van demasiado bien los shaders 2.0. Solo hay que mirar los resultados desglosados del 3dmark 2003, y ver que la diferencia que sacan en las pruebas 2 y 3 (directx 8) la pierden xq las de ATI arrasan en el test mother nature. Ya veremos cuando los shaders 2.0 estén a la orden del día.



  • 3

    Esto lo taparan con marketing señores con MARKETING, ya se encargaran de que en todos los juegos salga el logo al iniciarlos de "The way to play it"(o lo ke diga).

    Encima que necesita una fuente de 480w para arrancar, 2 conectoer molex,no es barata y encima sigue sin ser compatible con directx9??? JODO que esta es de nueva generacion!!!!!

    O es mejor una x800XT sin requerimientos de fuente, 1 conector molex, tampoco barata, compatible 100% directx9 y da mejor rendimiento que la NVidia(segun ultimos test).???

    :D :D :D :D :D :D :D :D :D :D



  • 4

    No puedo creer que no hayan arreglado lo de los shaders y en el shaderMark sigan sin funcionar algunas pruebas :nono: . De todas formas por lo que tengo entendido nv ha trabajado mano a mano com microsoft para que sea compatible 100% con dx 9.0c, con pshader 3.0, algunas instrucciones que "en teoria" la x800 no tiene…

    KurkoKO: en esta web han probado la tarjeta y de 480w nada, rula con 350w y 100% estable:
    http://www.guru3d.com/article/Videocards/128/10/
    Lo que no se muy bien es si realmente necesitan usar los dos molex…
    En este reportaje la 6800ultra tiene el clock gpu a 400mhz y eso es poco para 0.13 micras de tectologia que se emplea para el micro. No descartaria que nv haya esperado el lanzamiento del X800
    para lanzar a posteriori un 6880 ultra , 6900 o algo así con gpu a 500 o más.
    Espero que la corona de "mejor grafika" este disputada... :D

    PD: recordemos que el Half Life2 sera un juego pro-ATI (ya que lo dan con sus tarjetas) asi como el doom3 sera pro-Nvidia...

    Saludos!!!



  • 5

    Lo de los 400 MHz y la tecnología de 0'13 micras… no es cierto que por ser 0'13 tenga que llegar el micro a 500 MHz. Si fuera así, los micros pentium4 de 0'13 micras llegan con overclock a los 4GHz o más. La velocidad a la que llega un micro depende de muchas cosas, entre ellas el número de transistores y el calor producido por éstos, y en este caso, hay muchos transistores y son glotoncetes de electrones. Lo de los dos molex parece que es para conseguir tensiones más estables, ya que si toda la corriente pasa por un solo cable, la pérdida de tensión en él es mayor que si la corriente pasa por dos cables. Además, se produce menos calor en los conductores, con el menor riesgo de que se quemen los cables.



  • 6

    Ya lo creo que tiene un webo de transistores! en el mismo reportaje que comento tambien afirman:
    "And in case you are wondering yes…the transistor count is higher than a Pentium 4 Extreme Edition. "
    joer... más transistores que un un p4!!

    Tienes razón en lo de las 0.13 micras , pero por lo que he leido, a 500mhz debería llegar sin despeinarse.

    Saludos!!



  • 7

    Podemos apostar si quieres :sisi: Si llega en este stepping, es con soluciones de refrigeración "extraordinarias" como la líquida o el cambio de fase. Dudo mucho que con aire se consiga llegar. Por lo que tengo entendido, este chip tiene una subida de consumo brutal con la velocidad, ya que necesita una subida fuerte del vcore. Ya veremos a donde llegan, pero no tengas muchas esperanzas



  • 8

    Yo sin dudar aparte de la velocidad(mas que suficiente) ati se lleva la palma con las mejoras graficas que consigue con su x800…como es el nuevo metodo de compresion de texturas 3dc da una calidad impresionante,aparte el TAA filtros aun mas mejorados sin perdida de rendimiento...y sabiendo que desde las 9x es 100% compatible con directx9 y PS 2.0 creo que no hay mas que decir.
    Nvidia podria incluso ser mas rapida,pero para que quereis una tarjeta de ultima generacion si no es para ofrecer una calidad grafica sin igual y poder ver realmente los efectos que los creadores de los juegos quieren transmitir?

    PD: que risa lo del PS 3.0 que anuncia nvidia
    PDII: Aveis visto la demo 3D de la X800 ?¿ impresionante que peuda mover algo asi en tiempo real



  • 9

    KurkoKO dijo

    Esto lo taparan con marketing señores con MARKETING, ya se encargaran de que en todos los juegos salga el logo al iniciarlos de "The way to play it"(o lo ke diga).

    Absolutamente de acuerdo contigo, Nvidia son los reyes del marketing y quieren tapar todos los posibles fallos con campañas de marketing que envuelven a los usuarios y no les dejan ver la verdadera realidad. El marketing de Nvidia solo muestra las cosas buenas y oculta las cosas malas.

    Además como ya han tomado como algo normal el camino del engaño y la mentira, no me asombraria que si le preguntan a Nvidia por este tema se invente cualquier cosa con tal de cubrir esto, incluso supongo que serían capaces de decir cualquier cosa con tal de ocultar este tema.

    Ya la campaña misma del "the way to…." es ya un engaño de MARKETING porque esta claro que es mentira que la mejor gráfica para jugar a un juego sean las de Nvidia. Y no hablo principalmente de la velocidad que sea mas o menos rapida, sino de la calidad de imagen y efectos y fiabilidad de los drivers que no engañen al usuario, y que sea compatible 100 % con las tecnologías actuales, cosa que las Nvidia NO lo son.

    CaEsAr dijo

    No puedo creer que no hayan arreglado lo de los shaders y en el shaderMark sigan sin funcionar algunas pruebas

    Yo todavía sigo asombrado de como es posible que habiendo hecho en teoría una nueva generación de tarjeta y que se supone que el chip es nuevo y no tiene en principio relación con las NV30 ¿ cómo es que sigue teniendo estos fallos? :confused: :confused: :vayatela:

    Con los cientos (o miles) de criticas que ha tenido Nvidia en internet, lo minimo que podían haber hecho era corregir los fallos que tenían las FX. ¿ o es que a Nvidia no le importa nada lo que piensen y digan los usuarios de sus tarjetas?

    Isma.n dijo

    PD: que risa lo del PS 3.0 que anuncia nvidia

    Si parece de chiste, porque yo lo que veo es que es Marketing puro. Antes de sacar los 3.0 tendrían primero que arreglar los 2.0 y que sean 100% compatibles como lo hace ATI. Además según ha dicho un programador casi todas las nuevas supuestas funciones del 3.0 se pueden realizar sin problemas en la PS 2.0.

    Isma.n dijo

    Nvidia podria incluso ser mas rapida,pero para que quereis una tarjeta de ultima generacion si no es para ofrecer una calidad grafica sin igual y poder ver realmente los efectos que los creadores de los juegos quieren transmitir?

    Efectivamente, ¿ de que sirve que sea más rápida si se va a ver peor? ¿ o pero aún que NO se pueda ver nada de esos efectos porque no sean compatibles al no ser soportados los shaders que se usen ? Lease NVidia = Shader not supported , como me paso a mi cuando tenia las FX5200 :rabieta:

    Isma.n dijo

    Aveis visto la demo 3D de la X800 ?¿ impresionante que peuda mover algo asi en tiempo real

    Si la demo de Ruby es impresionante, si miras bien los detalles de los reflejos, sombras y brillos te quedas :o , teniendo en cuenta que en una X800 veras la demo ejecutarse a tiempo real con una definición estupenda y a toda pantalla :o como lo hacen las demos demos de ATI.

    ¿ puede una Nvida hacer esto? :D



  • 10

    SpaceRay y pensar que con la salida del R300/NV30 estabas más "a favor de NVIDIA" :D, juajsuas.. ahora eres PROATI accérimo :p

    En fin… yo en esta generación no cambio, seguire con mi 9800PRO..

    Porque tanto ATI como NVIDIA MIENTEN; no es NUEVA GENERACIÓN, estamos en la misma, en la de la DX9... la nueva sera con al DX10 y la R5XX y nv50 :rolleyes:

    Saludos



  • 11

    Hitmaker, pero es que segun lo que he leido, los de ATI no han dicho que sea una nueva tarjeta, sino una revision profunda de su R400, de ahi que sea el R420. Porque como dices tu, no hay cambios en el chip sobre Dx, pero si nuevas cosas que mejoran la vision de los juegos.



  • 12

    Yo tb. me quedo con mi ATI 9700 no-pro… si bien ya está empezando a entrar en gama media. Un añito más y toca cambiar :p





Has perdido la conexión. Reconectando a Hardlimit.