Mejor calidad de imagen entre ATI o Nvidia.


  • 0

    Un saludo a todos aquellos usuarios que no me hayan visto en comentarios anteriores.:risitas:

    Siempre he escuchado a personas hablar que unas tarjetas ATI / Nvidia brindan una mejor calidad de imagen, independientemente de el monitor que se este usando, es eso cierto o solo es uno de los tantos mitos urbanos.

    Personalmente, no me atrevo a dar un veredicto al respecto de si alguna de las dos marcas brinda mejores imágenes, pero creo que es una realidad que una de las dos es mejor, no se si estoy equivocado o no.

    En ese caso el interrogante seria, ¿Es cierto o es mito? y si es cierto, ¿cuál de las dos es mejor en cuanto a calidad de imagen?

    Gracias de antemano por sus respuestas.;)

    Saludos…



  • 1

    Hay años que ATI es mejor que Nvidia y otros lo contrario.(por suerte para todos)
    Si en cuanto a calidad,te refieres a polígonos,filtros,etc…en 3D (juegos) dependerá del modelo y prestaciones de la tarjeta elegida.
    Si con calidad te refieres a calidad en general (ver fotos por ejemplo) te da lo mismo una que otra...cuando las GPUs tenían 1 mega de ram,también se veían.

    Salu2



  • 2

    No, el FSAA y el AF si tratan la imagen, pero más que todo me refiero a los colores, brillos, Altos contrastes, gamas y matizado, cual de las dos marcas es mejor para brindar de mejor manera este tipo de parámetros, pero independientemente de las capacidades del monitor como lo exprese anteriormente o si es que eso es un caso aparte que solo incumbe al monitor.

    En ese caso se diría que es un mito lo de la mejor calidad de imagen, pero hay un interrogante muy importante a la hora de hablar de calidad y es:

    ¿Cuál de las dos marcas es mejor para controlar la sincronía vertical de imagen?:|

    Saludos…



  • 3

    Yo también me he preguntado siempre lo mismo. Ahora no se como andará la cosa, pero hace unos años (en la época del pentium 2), la diferencia entre una tarjeta gráfica de gama baja (ej una S3 Savage 3d de 8 mb o cualquiera PCI de 4 Mb) y una de gama media (ej Voodoo 3 3000 de 16 Mb) era muy grande en cuando a la calidad de imagen. Y no me refiero al procesado de los gráficos 3d, sino a la imagen que el RAMDAC enviaba al monitor: todo se veía más nítido, con colores más fieles, etc.

    No se si ahora ocurrirá lo mismo porque hace mucho que no pruebo una tarjeta gráfica que no sea ATI o nVidia (que absorbió a 3dfx). De todas formas, si la tarjeta gráfica usa una salida DVI, dudo mucho que haya alguna diferencia entre cualquier cosilla de 50€ y una tarjeta profesional de 1000€.



  • 4

    A esa diferencia exactamente me refiero, una diferencia la cual no se puede calcular con programas, sino con criterio personal, seria esperar a los usuarios del foro que han tenido la posibilidad de usar todo tipo de tarjetas pero con un mismo monitor, para que dieran sus puntos de vista sin caer en el fanatismo de marcas para ver a que conclusión se llega.

    Saludos…



  • 5

    Yo diría que actualmente las gráficas actuales tanto ATI como NVidia ofrecen una calidad de imagen parecidas, ya sea de gama alta (ejemplos: Radeon HD4890; Geforce GTX275), gama media (ejemplos: HD4670; Geforce 9600 GT), o gama baja (ejemplos: HD3450; Geforce 8500 GT)

    En un mismo monitor probé una Radeon X1300LE y una XFX 8600 GT con un Pentium D (el ordenador anterior que tuve) y actualmente la ASUS EN8800 GT con el Core 2 Duo (mi ordenador actual), pero con el mismo monitor (un AIRIS de 17 pulgadas) y todas estas tarjetas (excepto en juegos) se ven igual de bien en cuestión de películas, calidad de imagen, fotos. No había diferencia con respecto a calidad de imagen.

    Pero sí recuerdo que hace diez años, cuando entonces usaba un Pentium II, noté mucho el cambio cuando cambié mi Trident de 4 MB con una Riva TNT de 16 MB (qué tiempos :D), y no sólo en juegos (que evidentemente se notaba y mucho en juegos como el Quake 2). Con aquella Trident si quería poner a la máxima resolución que permitía aquella pantalla que tenía entonces de 15 pulgadas ya me veía obligado a bajar la cantidad de colores a 16 bips, o incluso a tan sólo 256 colores en algunos casos y esto afectaba y mucho a las fotos. Con el cambio a la Riva TNT pude configurar el Windows 98 a la capacidad máxima de colores, notando una mejoría impresionante en la calidad de imagen de las fotos.



  • 6

    Bueno,esas diferencias que antiguamente podían ser observadas a simple vista,plus por el cual podías decantarte por una u otra tarjeta,
    ya son las bases mínimas de calidad,imprescindibles para cualquier marca,por cutre que sea.(S3 :resaca:)

    Ya cualquiera puede reproducir chorrocientos colores más de los que distingue el ojo humano e incluso elegir perfiles de colores que se ajusten más
    a las normas de Fuji,Kodak,etc (como las impresoras),para presentar en pantalla colores idénticos al diseño final elegido.

    Hoy en día,sería como preocuparse de si una impresora láser imprima sin los defectos de una matricial…creo que está superado...Todas cumplen ese mínimo estándar.

    Salu2



  • 7

    Las diferencias de calidad las vais a encontrar entre la comunicacion analogica del conector VGA y la comunicacion digital directa del DVI, o cuando se usa un monitor tft a una resolucion que no es la nativa.
    Tambien entre distintos monitores.

    Esas son las cosas que realmente van a afectar apreciablemente a la calidad general de la imagen que visionas, ademas que se nota a ojo desnudo.

    Encuanto a calidad intrinseca de imagen en general que la grafica sea capaz de proveer, hay que considerar que hablamos de un entorno digitalizado, y en ningun momento se pierde calidad hasta que se pasa a anlogico.
    O sea, lo que marca la calidad es cada etapa analogica existente, ya que en la etapa digital ni se pierde ni se gana.

    El concepto en si de que una grafica pueda ofrecer mas calidad visual que otra en un entorno digital no cabe, a no ser que hablemos de graficas lo bastante antiguas que no eran capaces de manejar una representacion visual a la altura de la apreciacion del ojo humano, pero hoy en dia como bien dice XRAYBoY cualquier grafica existente supera esos niveles varias veces, si no comparad el rendimiento de cualquier integrada actual con esas S3.

    El monitor es lo que mas marca la diferencia en imagenes, en el caso de video la cosa se extiende y se complica por culpa de la decodificacion y del HDCP, por ahy no me meto.

    Salu2.



  • 8

    En cuanto a color y calidad de video fotos etc.. las ATi son mejores

    si es para juegos malloritariamente las NVIDIA

    si es para todo un poco las ATI para mi son las mejores

    solo tienen el fallo de que los drivers no estan muy bien optimizados

    saludos



  • 9

    @ferelxyx:

    En cuanto a color y calidad de video fotos etc.. las ATi son mejores ….

    Pues en cuanto a color es un poco dificil de comprender, si un pixel de una imagen en formato digital tiene una tonalidad cualquiera designada como X, entre tantos millones de colores que se estan manejando, que esa tonalidad con codigo X sea distinta en una ATI que en una Nvidia resulta un poco extraño.

    Puede que tenga una explicacion, pero entonces ¿el nivel de fidelidad que en teoria se alcanza que es un bulo o algo?

    Salu2.



  • 10

    Hay que diferenciar entre calidad 2D y 3D, ya que mientras que hace mucho que en calidad 2D se equipararon las marcas, en 3D según la generación era mejor la calidad de una o de otra. Hoy en día es casi más cuestión de preferencia personal que otra cosa, ya que ambas marcas tienen un filtro anisótropo que aplica las mismas muestras en todos los ángulos, tienen antialiasing de texturas transparentes mediante supersampling en alpha testing y alpha to coverage ("multisampling") y tienen antialiasing multisampling de mucha calidad. Los tiempos de las FX (con una diferencia abismal con la familia 9000 de ATI) o de las X de ATI (con una diferencia mucho menor, pero en algunos detalles como el anisótropo, apreciables respecto a las 6000 de nVidia) parece que se han dejado atrás.

    Eso si, no entiendo cómo hay gente que ama el digital vibrance de nVidia, para mi gusto destroza la representación de los colores.



  • 11

    El punto de los colores y contraste es en el que más me baso para establecer una imagen que se considere de calidad, tardo horas estableciendo perfiles de color que se adapten a la realidad y no pasen por considerarse inapropiados para las diferentes muestras de imagen, me agradan las tonalidades de colores apreciablemente enfocadas en la realidad.

    Principalmente por que es útil, pues a la hora de editar imágenes e imprimirlas, muchas personas se encuentran con que los colores, contraste y nitidez que ven en su monitor no son para nada parecidos al resultado de la impresión resultante, para los juegos es más que necesario que el color este bien establecido para lograr imágenes realistas.

    Se que en este aspecto influye mucho el monitor y la misma impresora, pero además quería saber si la grafica también tenia algo que ver en el tema, pues no he tenido la oportunidad de probarlo personalmente, por esto son tan importantes para mi sus apreciaciones, por eso espero que sigan opinando.

    Saludos…



  • 12

    En el driver se establece un perfil de color. Normalmente los fabricantes "decentes" de monitores e impresoras proporcionan este perfil, para que la representación sea lo más fidedigna. La gráfica, con la calidad que tiene la parte 2D de los chips desde hace años, es un mero intermediario. No deberías notar ninguna diferencia entre una gráfica ATI y una nVidia con el mismo monitor y el mismo perfil de color, si es lo que te preocupa.



  • 13

    @kynes:

    No deberías notar ninguna diferencia entre una gráfica ATI y una nVidia con el mismo monitor y el mismo perfil de color, si es lo que te preocupa.

    Esa era exactamente la razón de mi inquietud, debido a los comentarios de las personas que a la final es mejor comprobar, motivo por el cual decidí exponerlo en este foro.:D

    Ahora veo que la mayoría a concluido que en cierta época esas diferencias si eran notablemente visibles, pero con los estándares actuales de regulación, los dispositivos gráficos ofrecen los mismos patrones de imagen, aclarando que si pueden existir diferencias, pero solo en dispositivos que trabajen mediante conexiones VGA-VGA, DVI-VGA, mas no en conexiones DVI-DVI, esto debido a la exactitud con la que es tratada la información de cada píxel en los dispositivos de imagen digital.

    Cabe aclarar, que al respecto de los monitores, si existen diferencias que en la mayoría de los casos son muy visibles a simple vista, diferencias que van desde color, contraste estático, contraste dinámico, brillo y Angulo visual, diferencias que no existen internamente pues la información del píxel siempre será la misma, sino que la diferencia existe en el momento en que el pixel es proyectado por la pantalla, esto según la calidad de fabricación de la misma, pero que es entendido dada la dificultad de los métodos de producción, pero aclarando que al pasar del tiempo estas diferencias también serán poco visibles a simple vista y que comercialmente dejaran de ser un punto de comparación.

    Esta es la apreciación final que tengo del tema, gracias por aportar su opinión y si alguien no esta conforme con lo expuesto puede expresar su punto de vista.

    Saludos…





Has perdido la conexión. Reconectando a Hardlimit.