¿ Porque todos miden las nuevas gráficas SOLO por la velocidad ? ¿ y la calidad?
-
Si no contara, todos los fabricantes solamente implementarían funciones estándar.
Ahora mismo, no hay forma de cuantificar ese valor añadido según prácticamente ningún sitio. Y a mí ese valor añadido me interesa. Si una tarjeta se 'curra' la reproducción de vídeo limando los píxeles para que no aparezcan cuadros y otra no, a mí me interesa saberlo.
Y no hace falta irse a funciones no implementadas en ATI y sí en nVidia. Por ejemplo, algunas veces he echado de menos pruebas sobre el porcentaje de CPU que las tarjetas 'chupan' en la reproducción de un vídeo, o pruebas de rendimiento de la decodificación MPEG-2.
Tampoco se compara el software que traen, a veces echo de menos que comparen el Hydravision con el sistema multiescritorio y multimonitor de nVidia. O que digan qué diferencias hay entre los paneles de control de ambas.
Tampoco hay tests de color, o de calidad de la salida de TV, y en prácticamente todas las webs sólo se indica que una tarjeta tiene salidas "DVI, VGA y TV", sin explicar la simultaneidad de las salidas, que es otro posible valor añadido.
Es difícil comparar todas las tecnologías que traen las tarjetas. Pero algunas hacen prácticamente lo mismo y estoy seguro que algún benchmark podría hacerse. Y si no se puede, porque no hagan lo mismo, por lo menos EXPLICARLAS. Hay análisis con páginas y páginas de diferencias al aplicar FSAA a una imagen, pero son incapaces de ponerte una imagen con y sin Smoothvision, o de explicarte lo que es en más de dos líneas.
En resumen, pako, estoy de acuerdo en que es difícil, no es estándar, pero hay que intentarlo. Estos sitios ayudan a hacer compras, y el valor añadido de un producto es más importante que sacar 4 FPS más o 100 puntos 3DMark. ¿No crees?
-
Duncan
Felicidades, perfecto, lo has descrito perfectamente lo que quiero decir. !!!! Estoy totalmente de acuerdo contigo y eso es que lo que pretendo con esta rama. Pensaba que era la gente no se daba cuenta de esto.
Duncan dijo
Estos sitios ayudan a hacer compras, y el valor añadido de un producto es más importante que sacar 4 FPS más o 100 puntos 3DMark.
Claro, es lo que yo digo, si la diferencia de velocidad es poca , incluso en algunos casos insignificante, lo que importa realmente es la calidad de la tarjeta y sus funciones adicionales. Yo he visto dar por ganadora a una tarjeta solo porque en un benchmark tenía 15,9 y la otra tarjeta tenía 15,1 o que una tarjeta ganaba y era la mejor porque podía hacer una función 1 o 2 segundos más rápido que la otra. ¿ es que esto es tán importante? Además nos quieren hacer creer que un 5% de diferencia es MUCHA diferencia y yo creo que no.
Como dice Duncan, el valor añadido es lo que importa en estos casos para decidir cual es mejor y no el resultado de un benchhamrk donde no hay una clara diferencia.
O sea que en el caso de que ambas tengan un rendimiento similar, hay que comparar todas las funciones que lleva cada tarjeta y ver cual tiene más calidad o ofrece más para decidir cual es mejor.
Las review están hechas para informar a la gente y que puedan decidir cual es mejor según la información ofrecida y puedan decidir cual comprar, pero ¿ como hacerlo si la información es incompleta y solo incluye una parte ? Si, la velocidad y rendimiento es muy importante, pero NO lo es todo y más aún cuando las diferencia no es tan grande como para que sea notable.
Ahora mismo, no hay forma de cuantificar ese valor añadido según prácticamente ningún sitio. Y a mí ese valor añadido me interesa. Si una tarjeta se 'curra' la reproducción de vídeo limando los píxeles para que no aparezcan cuadros y otra no, a mí me interesa saberlo.
Eso es precisamente, las tarjetas actuales ya no son una simple GPU con memorias, ahora además hacen otras cosas y tienen MÁS funciones ADEMÁS de la aceleración 3D, como por ejemplo la reproducción de video porque evidentemente ya no se usa una descompresora de DVD por hardware como antes, no es necesario, ahora lo hace el software y el hardware del GPU y entonces depende de la calidad de este.
Pero se habla muy poco de esto en las comparativas, y solo a veces se mencionan las funciones extras de una tarjeta y raramente se explican como funcionan y si son de calidad o no, y si realmente estas funciones nuevas pueden ayudarnos y ser útiles o solo ser efecto del marketing.
Ahora la diferencia ya no es que sea más rápida o más lenta, es QUÉ funciones extras incluye y que efectos puede procesar con calidad, y no digo que no sea importante la velocidad ya que todas estas funciones extras no servirían si la tarjeta no tuviera velocidad suficiente para desarrollar estas funciones. Pero si la diferencia con la competencia es de un 5% o 10% NO es importante, lo que importa más es el resto.
Como dice Duncan, a mi me interesa saber que otras cosas útiles trae una tarjeta que nos va a ayudar a disfutar mejor de nuestro PC.
De la misma manera que Intel ha sacado el Pentium 4 con HT para mejorar el rendimiento y se ha explicado extensamente como funciona ese nuevo HT y se ha demostrado, que sea bueno o no , ya es cuestión personal de cada uno, pero has tenido la información necesaria para poder opinar ¿ porque no se demuestran y explican las nuevas funciones de una tarjeta gráfica para saber si son útiles y buenas o no?
Por ejemplo el VIVO que traen algunas tarjetas, es un extra adicional que no lleva relación con la velocidad, pues ¿ alguien ha hecho pruebas de la calidad de la entrada y salida de video ? ¿ si es en tiempo real o no?
Yo creo que alguna manera tiene que haber para comparar el VIVO de Nvidia con el de ATI.Como dice Duncan , no hay demostraciones de para que sirve realmente el smoothvision, o el Intellisample technology, o el smartshader, u otras nuevas funciones que se incluyen cuando te quieren vender la tarjeta.
Al comparar una y otra tarjeta te dan una lista de funciones que tiene cada una y te dicen lo que tiene una y la otra no, pero NO te explican para que sirven todas esas funciones, y lamentablemente no puedes creer al 100% en las explicaciones que te da el fabricante ya que están pueden estar muy influenciadas por el marketing y estas funciones nuevas pueden ponerlas muy bonitas e interesantes y luego no ser realmente tan útiles y necesarias como los fabricantes nos quieren hacer creer.
Y algunas de estas nuevas funciones son casi las mismas en ambas tarjetas pero con diferentes nombres, y entonces como dice Duncan, alguna forma debe haber de compararlas. Tal vez mostrando capturas de pantalla y explicando las diferencias entre ambas, ya que nosotros no somos expertos en detectar las diferencias pero ellos sí.
En las reviews de cámaras fotográficas digitales se le da mucha importancia a la calidad, intensidad y saturación del color, y ponen varias fotografías de las diferentes cámaras en diferentes situaciones y las analizan (ver www.dpreview.com ) y ven cál es mejor o peor.
¿ se analiza la calidad el color que da una tarjeta gráfica? NO , esto en teoría no importa, pero en una reviusta de diseño gráfico que conozco SI le dan importancia ya que es importante saber si tiene buena calidad de color y representa fielmente los colores como en la realidad ya que si se va a hacer retoque fotográfico o y luego se va a imprimir es importante saber que lo que vemos en pantalla se va a parecer a lo que tengamos impreso (esto también depende de la calida del monitor, claro)
Solo recuerdo una web que analizaran las salidas de TV y DVIO y la calidad del 2D y su nitidez.
Y no me digais que para diseño gráfico se usan tarjetas profesionales porque no es cierto, ahora ya no, ahora sólo se usan tarjetas profesionales a nivel de diseño 3D.
No se hacen comparativas de la calidad del VIVO, de la salida RGB y el Ramdac, del DVI y la salida de TV que depende directamente del fabricante de la tarjeta y me supongo que una tarjeta fabricada por Guillemot o ATI directamente, no se puede comparar a la calidad de una de CLUB 3D o de estas tarjetas sin marca o marca desconocida, ya que estas son más baratas y claro los componentes son peores, pero no se puede saber si realmente hay mucha o poca diferencia de calidad entre ambas opciones, teniendo en cuenta la diferencia de precio.
Pakohuelva
Entiendo que no se pueden comparar peras con manzanas, y que no se puede hacer un benchmark que de resultados diferentes, pero al menos si se inventan una nueva fruta (nueva función o extra) describir como es, y si realmente es útil y es buena aunque no se pueda comparar con otra cosa de la otra empresa.
Y además yo se que hay otros benchmark que NO solo miden la velociad y no los usan casi nunca.
Y las pruebas las podrían hacer de la misma manera que hacen las comparativas de los filtros AA y anisotrópico en solo algunas webs, que no todas las hacen.
Y si en esas imagenes que aparecen, a veces nosotros no vemos una diferencia real o aparente, ellos si son capaces de ver las diferencia porque son expertos y se dedican a eso y entonces pueden darse cuenta de que tarjeta es mejor.
yo estoy buscando en las webs y haciendo un informe como ya dije para demostar esto. Ya lo pondré cuando pueda terminarlo.
-
¿Tu sabes de lo que estas hablando?. Es que creo que no te he entendido bien o tu no te has explicado.
Segun entiendo a ti no te valen los test basados en Quake porque no exprimen tu tarjeta al maximo, por eso necesitas test Dx8 como el Unreal que si lo hacen, ¿es eso?. Pues si es eso estas muy equivocado.
Para empezar Dx es una mierda lo que hace que un juego en OpenGL obtenga la misma calidad que uno Dx con muchisimos menos recursos. Evidentemente como tu tienes una Radeon 9700 necesitas un juego que tire de recursos independientemente de que estos esten aprovechados o no.
Por ponerte un ejemplo el Jedi Knight II que usa el motor del Quake III, a maxima calidad a 1024 no funciona fluido en un 2000+ con una Radeon 8500. Tu diras que a ti eso te da igual porque tienes una tarjeta superior pero la mayoria de la gente tiene este tipo de tarjetas o inferiores (4200, etc).
Tampoco veo que hayas entendido mi explicacion. Si tu quieres comparar el rendimiento de una 9700 con el de una 4200 no puedes utilizar test que no funcionen en esta. De nada sirve que una 9700 de 1000 puntos en un test que puede ejecutar ella sola, ¿con que la comparas?.
Todo esto sin tener en cuenta un aspecto basico, no todos los juegos son Dx, hay muchos que son OpenGL y como lo que se busca es hacer pruebas lo mas reales posibles se deben unar juegos sobre ambas apis. De nada sirve que una tarjeta te de 10000 puntos en el 3DMArk si con un juego OGL va a dar 10 fps.
De todas formas esta rama no trataba de esto.
-
Pues no se que reviews mirais vosotros porque las que yo miro toda la tecnologia de la grafica esta explicada al detalle y con imagenes que lo aclaran.
Paro antes de nada tenemos que partir de que la calidad no se puede medir, esto es algo subjetivo. Medir la potencia de una grafica es sencillisimo, solo tienes que pasarle un test y ver cuantos fps da. ¿Pero como mides la calidad?. ¿Quien me dice a mi que cuando en una web ponen fotos de la calidad de las graficas y se ven mal no es por mi monitor?. ¿O que la calidad este lilmitada por el monitor o los cables?. Yo por lo menos soy incapaz de sitinguir la supuesta calidad de dos graficas en las fotos que ponen.
Si os pasaispor Anandtech podreis encontrar toda la informacion que querais sobre estas tecnologias. En el smoothvision por ejemplo explican que funciona con los shaders interpolando pixels y pone dos imagenes, una palicandoselo y otra no. En toms te ponen las imagenes sin compresion para que puedas ver la calidad de las mismas. ¿Que mas quereis?.
La reproduccion hardware de DVDs. Pues se ha hablado bastante de ella, las Ati tenian iDCT y otras cosillas desde hace años y las nvidia lo incorporaron con las GF4MX. ¿Sabeis porque no se hacen pruebas sobre el consumo de recursos reproduciendo DVDs?. Por dos razones, la primera que al que va acomprar una 9700 le importa poco eso, te compras esa tarjeta para jugar, para ver DVDs te compras una descompresora que te sale mas barato. La segunda, que las pruebas la realizan sobre Pentium 4HT o XP a 2800+ o mas en los que es virtualmente imposible cuantificar el uso de la ayuda hardware.
¿La calidad de las salidas TV?. Es rumor popular que la de las ATi es superior pero volvemos a lo mismo, ¿como lo demuestras?. Yo he visto analisis comparando las salidas de TV de las 4200 en funcion de los chips que llevaban, Conexant o Philips principalmente. Pero estas pruebas solo se puede hacer con comparativas de tarjetas iguales, no sirve para una 4200 y una 9700. Finalmente sigue siendo subjetivo.
Otra cosa que planteais es el Vivo. El vivo es un parche en una grafica y no sirve para nada. Esta claro que entre dos tarejtas graficas iguales y al mismo precio y una con Vivo y otra sin Vivo pues si es importante. Pero es que la calidad que se va abtener con una entrada Vivo es similar a la de una capturadora de television y a nadie se le ocurre usarla de otra forma que no sea ocasionalmente. Es comentais unas cosas, ¿es en tiempo real?. Pues depende del micro de tu Pc, para que fuera en tiempo real tendria que llevar chips para la compresion pero como no los lleva pues depende totalmente de la CPU.
El software, pues otra vez lo mismo, esta bien al mismo precio y caracteristicas pero nadie sacrifica memorias mas rapidas por 4 juegos mas que, no nos engañemos, puedes conseguir por otros medios.
Y hablando extrictamente de las pruebas pues se dejaron de usar los test sinteticos porque no reflejaban la realidad, por eso se empezaron a utilzar los test sobre juegos, si ahora vosotros quereis que se midan las capacidades unicas de las tarjetas estariamos en el mismo caso porque no se usan en los juegos. SOlo se pueden comparar las funciones comunes, ademas las extras no se usan.
¿Sabeis cuantos juego sutilizan la tecnologia trueform de Ati que aparecio con la 8500?. Pues yo solo recuerdo un parche para el RTCW, pero seguro que se pueden contar con los dedos.
En resumen, que entiendo lo que decis y que hay mucchos analisis que solo miran el rendimiento pero hay que saber buscar porque hay analisis muy buenos y extensos en los que la calidad de datos tecnicos aburre.
-
Packo… yo no entiendo de programacion ni de estas leche.s...
PEro si pusieramos una tarjeta ,.... mmm.. directx7 (ya se que esto da igual) pero de 600mhz de core.. y 1000mhz de memoria, 8 pipelines... .. no irai FENOMENAL el quake3???
Saludos
-
No he entendido tu pregunta.
P.D.: Como habeis visto he separado esta parte de la otra rama en la que creo que no pegaba nada y lo he puesto en esta que tiene un contenido mas aproximado.
-
Lo que digo es que siempre he pensado que el quake se basa mas en la fuerza bruta, ancho de banda de memoria, velocidad del core, pipelines.. que en la tecnologia de la grafica…
-
Bueno, tenemos que distinguir entre tecnologia de la grafica y el resto del sistema.
La tecnologia de la grafica incluye las pipelines, unidades de texturas, etc.
Lo curioso es que el Quake tiene mayor dependencia del hardware grafico que otros muchos juegos, no es exclusivo del Queke si no de todos los juegos basados en OGl, aunque esto es casi Queke y sus derivados.
Es una lastima que se le de tanta importancia al Dx frente al OGL cuando esta es una biblioteca tremendamente potente para lo que se diseño, los graficos. Ogl necesita que sus funcones esten implementadas es el hardware y no todo el hardware las implemente igual. En algunas reviews se puede ver la diferente implementacion de las funciones OGL de nVidia y Ati y es bastante curioso, normalmente ninguna las implementa completamente.
Una vez soltado este rollo decir que el Quake III se basa en la fuerza bruta del hardware grafico. En este caso concreto con las primeras graficas se veia esta diferencia claramente en las que eran capaces de aplicar mas texturas por ciclo de reloj, mientras mas capacidad de calculo depoligonos y texturas por ciclo mayor velocidad. Esto ya lo veremos con el Doom III.
Pero Dx hace exactamente lo mismo, eso si, menos elegantemente.
La diferencia entre ambos esta en que OGL es una libreeria exclusivamente de graficos, mas reducida y mucho mas estable en cuanto a nuevas versiones. De este modo una tarjeta de hace 3 años puede ser completamente compatible con OGL.
DirectX en cambio evoluciona mucho mas rapido (lo que no quiere decir que sea bueno) y una tarjeta compatible Dx7 por hardware podra ejecutar juegos DX8 pero tendra que emularlos por software con lo que la potencia de la grafica queda por detras de la potencia de todo el equipo.
Por esta razon una grafica Dx9 ejecutando exclusivamente software Dx7 no tiene que porque se mas rapida. En realidad lo es porque hace lo mismo que la otra pero mas rapido, es decir, en vez de funcionar a 200/200 Mhz ahora va a 400/400, pero si las dos funcionasen a la misma velocidad no tendria porque ser mas rapida.
En resumen, la dependencia del resto del PC y no solo del hardware grafico es mas patente en juegos Dx que OGL.
-
Pako,<br /><Respuesta a un comentario, pero OFF-TOPIC de la rama principal><br />No me había explicado. En verdad, me es igual DX7, DX8, DX9, u OpenGL. Lo que me interesa es que el juego sea lo más recargado posible, independientemente de la tecnología utilizada, para exprimir las tarjetas y dejar que la diferencia la marquen las tarjetas y no el micro.<br /><br />Ejemplo de lo que yo quería decir:<br /><a href="http://www.anandtech.com/video/showdoc.html?i=1683&p=10" target="_blank">http://www.anandtech.com/video/showdoc.html?i=1683&p=10</a> (Q3)<br /><a href="http://www.anandtech.com/video/showdoc.html?i=1683&p=6" target="_blank">http://www.anandtech.com/video/showdoc.html?i=1683&p=6</a> (UT 2003)<br /><br />Cuando está claro que la 9700 Pro es mucho mejor tarjeta que la 4600, se ve en el primer test que el límite lo pone el micro. Por eso creo que Q3 ahora mismo ya se va quedando 'vetusta' como herramienta de test, al menos para tarjetas de gama alta.<br /><br />Mi opinión te puede parecer curiosa, pero es cambiar una GeForce de las primeras por una 9700 cambia el estado mental de uno… ;)<br /><br /><br /><Respuesta al resto><br />He entendido tu explicación perfectamente, es obvia, no se pueden probar cosas distintas en distintas tarjetas. Y las extras que no se usen no entren en las comparativas, esto también pasa, y de hecho el Trueform es el mejor ejemplo. Pero todo lo demás, para mi, es una inquietud.<br />Mi compra ya está hecha, pero la he tenido que hacer sin la suficiente valoración en cuanto a calidad y valor añadido. En cuanto a potencia, te puedo asegurar que he valorado cada frame de más o menos en las pruebas... pero en cuanto al resto de factores, he tenido que ir un poco más "a la aventura".<br />Veo las reviews de Tom's y Anandtech con asiduidad, sobre todo estos últimos dos meses porque estaba esperando a cambiar de tarjeta gráfica. Coincido en que estas webs son maravillosas, y hacen lo que pueden, y explican algunas de las tecnologías que usan las gráficas (espero hayas visto en detalle mi primer comentario a quien inició el hilo).<br /><br />Por otra parte, he entendido tus explicaciones sobre los tests que proponíamos, pero es eso, una propuesta, al igual que las explicaciones, aunque en su mayoría acertadas, no rebajan mis inquietudes. Tómala como una lista de deseos que no he visto cumplidos en las webs anteriores (no nos engañemos, el hecho de que esta rama aparezca en Hardlimit no creo que llame la atención de estas webs), si conoces algún sitio donde se trate no dudes en decírmelo:<br />- No quiero dejar de lado la calidad diciendo que "no se puede medir".<br />- No quiero dejar de lado el software diciendo que "es secundario".<br />- No quiero dejar de lado algo tan sencillo hacer un listado de las características de una y otra tarjeta que aporten valor añadido al producto.<br />- No quiero prescindir de las características que no se usen en los juegos, sólo porque la 9700, la 4600, la GeforceFX, o la 9800, sean grandes tarjetas para jugar (¿No puedo comprar una tarjeta para jugar y para ver DVDs? ¿No puedo ser un diseñador gráfico que necesito máxima calidad pero no tengo la pasta para gastarme en una FireGL o una Quadro? ¿No puedo hacer mis pinitos editando vídeo profesional de forma casera?).<br />- No quiero prescindir de pruebas tan fáciles de hacer como el consumo CPU de la reproducción DVD por hardware (esta en concreto está tirada, porque es una prueba de potencia y no de calidad).<br /><br />Ten en cuenta que si hay voluntad, las pruebas de calidad se hacen, tanto calidad de color, calidad de salidas de TV... Por ejemplo, he visto al tío Tom realizar multitud de pruebas muy precisas sobre los niveles de cada color que varios monitores puede mostrar respecto a la misma tarjeta, pero jamás le he visto realizar la misma prueba con UN monitor (p.ej. un CRT de alta gama) y VARIAS tarjetas.<br /><br />P.D: Agradecería que me comentaras la web que indica los analisis en los que se comparan las salidas de TV, a ver si tengo más suerte que con Tom's o Anandtech.<br />P.P.D: Estás hecho un hacha, que la lista de deseos que quisiera que se cumplieran y no se puede se siga manteniendo no significa que no me haya quedado asombrado por tus conocimientos, que me han despejado bastantes otras dudas.
-
Ya imagine que te referias a que querias "quemar" la grafica. Pero te sigo recomendando que pruebas con el Jedi II y le pongas todo a tope, no va a ser como un UT pero chupa mas de lo que parece.
Y tranquilo, aunque ahora msimo el Quake III esta algo flojo (cualquier tarjeta da mas de 200fps) cuando llegue el Doom lo vamos a hechar de menos :risitas: Para que te hagas una idea: http://www.digit-life.com/articles2/radeon/r9800pro.html#p25
Sobre todo lo demas comparto vuestras inquietudes al 100% y estaria bien poder medir la calidad, pero siempre va a ser algo subjetivo aunque si bien es cierto que siempre las realiza la misma persona la subjetividad sera "cte". Lo que comentas de los monitores ya me lo habia planteado yo, si pueden medir la calidad de un monitor que es algo totalmente subjetivo.
Lo que si que no me convence es los de las tecnologias propias, basicamente porque supone un problema muy grave, mas de lo que podria parecer. Al principio cada chip implementaba sus propias instrucciones y los juegos se desarrollaban especificamente para un chip, si no tenias ese chip no podias jugar. Despues aparecieron las Glide y pasaba lo mismo pero todas las Vodoo estaban agrupadas y hasta que no aparecio Dx no empezo la cosa a aclararse un poco.
Si ahora volvemos a lo mismo cuando el programador se plante desarrollar un juego tendra que decantarse por una opcion, o programa para Ati o para nVidia (ahora mismo el resto cuenta poco). Logicamente programara para nVidia porque tiene un mayor numero de chips, per es que ademas entre ellas no son compatibles, no tienen los mismos efectos una 4200 que una FX.
Por esto todo lo que sea apartarse del extandar, por malo que sea, no es bueno para los usuarios.