¿ Porque todos miden las nuevas gráficas SOLO por la velocidad ? ¿ y la calidad?
-
Si estoy de acuerdo en que se hacen comparaciones entre los filtros AA y los anisotropico y que en algunas webs se ponen fotos para ver la diferencia de calidad, pero y ¿ el resto de efectos ? ¿ es que solo existen estos dos efectos?
Yo antes dije
Porque no se habla más de las prestaciones y de las capacidades de las tarjetas y se explican sus funciones. Que se comparen las prestaciones de ambas y no solo se hagan pruebas de velocidad
Que se comparen los Smartshader , smoothvision, videoshader, fullstream y drivers catalyst de ATI con los CineFX cinematic high precision graphics , Intellisample technology, Nview technology, pixel shader y vertex shaders y detonator drivers
O sea lo que digo es que se comparen las nuevas tecnologías que lleven ambas tecnologías de la misma manera que se comparan los filtros AA y anisotropicos.
Y voy a hacer un estudio de las webs y las reviews para asi tener una visión más general y fresca y poder explicarlo mejor y también para encontrar más ejemplos.
Y que se diga lo que realmente sirve y es útil de estas nuevas tecnologías y que cosas son solo marketing y que luego no servirán. Yo no me quiero dejar llevar por lo que digan y por eso quiero tener opinion propia y que me demuestren que tiene una tarjeta y que tiene la otra, y porque ATI o Nvidia (u otra) puede ser la mejor opción y no me vale eso de que sea la más rápida estando en Marzo del 2003, que ya esto no es una cosa imprescindible.
-
Vale, ahora entiendo lo que querías decir. Tienes razón.
En las webs no se pueden comparar todos los efectos que mencionas en todas las comparativas. Lo más que se indica es, en las reviews técnicas, el comportamiento de estos efectos (y a veces, con mucha suerte, se hace una comparativa 'sobre el papel' con cómo funciona la competencia).
El trabajo es más difícil porque hay que pasar de los benchmarks, hay que recoger un poco de aquí y de allá de las "PREviews" -y no las reviews- de los chips, en donde a falta de benchmarks por no estar el monstruito disponible, se dedican en los sitios hardware precisamente a explicar las cosas técnicas.
Recuerdo artículos de anandtech y tom's donde se explicaban en detalle cosas como el Z-Buffer o el Smoothvision.
Por ejemplo, para mirar las características técnicas:
En lugar de:
http://www.anandtech.com/video/showdoc.html?i=1779,
que me encontraría los benchmarks, yo me iría a…
http://www.anandtech.com/video/showdoc.html?i=1749En concreto, páginas como ésta serán las que busques, pero como te digo, tienes razón, NO hay comparativas…:
http://www.anandtech.com/video/showdoc.html?i=1749&p=5 -
Y digo yo… como de fiable es un test con el quake3, este siendo directx7 y la tarjeta directx9..
Como si le sale 4 veces mas rapida.. a ver si menos MARKETING y mas realidad.. que pongan juegos directx8 y un par de 3dmark2003. a ver si realmente tira.. y con filtros activados..
-
¿Pensemos un porquito?.
Un benchk solo tiene sentido si dos priductos pueden ejecutar la misma prueba, si cada uno pasa pruebas distintas no sirve de nada. Si uno corre en UT y le da 200 puntos y el otro el Quake y le da 25 no significa nada.
Partiendo de esta base, ¿con que comparamos el trueForm de Ati?, nVidia no tiene su equivalente pero aunque asi fuese no podria compararse porque no serian lo mismo. La unica forma de probarlas es que pasen las mismas pruebas y eso significa que esten programadas de la misma forma.
Si todas las tarjetas corren OpenGL o DirectX pues sera esta la forma de que hagan las pruebas.
Esto se basa en las capas de abstraccion, mientras mas cerca de un hardware hagas una pruaba mas lejos del otro estara y entramos en lo que ya hemos discutido, la optimizacion. Si en vez de programar un juego en Dx lo hicieran "a pelo" y usaran las carcteristicas hardware de cada chip podriamos correr el ultimo juego en una GF3 a maxima claidad y velocidad sin problemas.
Por lo tanto solo se pueden hacer pruebas de aquellas funciones implementadas en ambas plataformas o bien que muestren el mismo resultado aun haciendose de forma diferente, pero no cuando no tienen nada que ver.
-
El Queke III es OpenGL al igual que todos los Quekes anteriores y sus derivados incluyendo Half Life, Wolfstein, JediKnight, etc.
Precisamente mientra mas antigua es la version de Dx que se pasa mas fiable es la prueba porque asi todas las funciones estan implementadas por hardware. Por ejemplo, la GF4MX es directX 7, si pasa una prueba Dx9 el rendimiento sera inferior a una con soporte por hardware DX9 pero no al reves. Una GF4MX puede ser mas rapida que una GF3Ti500 en una prueba directx 7. Realmente no lo es porque a aumentado la velocidad a la que hace los mismos calculos…
-
Entonces ya puestos pako, que hagan una prueba con el Quake I…
Un Quake 3 no me parece lo mejor de lo mejor para probar una tarjeta. Es un test más, pero yo necesito un test con una aplicación, al menos, DirectX 8, o con un UT2003 o Unreal 2, para exprimir al máximo las tarjetas, y es que estas tarjetas de gama super-alta hay que hacerlas sudar, o solamente notas diferencias marginales entre ellas...
Bueno, sí, Q3 1600x1200, FSAA, AA, es sudar, me refiero a exprimirlas hasta que no quede de ellas más que una pulpa sanguinolenta... ho ho ho
Además, estoy seguro -y es una impresión- de que todos los drivers traerán optimizaciones más que sobradas para Quake 3.
-
Si no contara, todos los fabricantes solamente implementarían funciones estándar.
Ahora mismo, no hay forma de cuantificar ese valor añadido según prácticamente ningún sitio. Y a mí ese valor añadido me interesa. Si una tarjeta se 'curra' la reproducción de vídeo limando los píxeles para que no aparezcan cuadros y otra no, a mí me interesa saberlo.
Y no hace falta irse a funciones no implementadas en ATI y sí en nVidia. Por ejemplo, algunas veces he echado de menos pruebas sobre el porcentaje de CPU que las tarjetas 'chupan' en la reproducción de un vídeo, o pruebas de rendimiento de la decodificación MPEG-2.
Tampoco se compara el software que traen, a veces echo de menos que comparen el Hydravision con el sistema multiescritorio y multimonitor de nVidia. O que digan qué diferencias hay entre los paneles de control de ambas.
Tampoco hay tests de color, o de calidad de la salida de TV, y en prácticamente todas las webs sólo se indica que una tarjeta tiene salidas "DVI, VGA y TV", sin explicar la simultaneidad de las salidas, que es otro posible valor añadido.
Es difícil comparar todas las tecnologías que traen las tarjetas. Pero algunas hacen prácticamente lo mismo y estoy seguro que algún benchmark podría hacerse. Y si no se puede, porque no hagan lo mismo, por lo menos EXPLICARLAS. Hay análisis con páginas y páginas de diferencias al aplicar FSAA a una imagen, pero son incapaces de ponerte una imagen con y sin Smoothvision, o de explicarte lo que es en más de dos líneas.
En resumen, pako, estoy de acuerdo en que es difícil, no es estándar, pero hay que intentarlo. Estos sitios ayudan a hacer compras, y el valor añadido de un producto es más importante que sacar 4 FPS más o 100 puntos 3DMark. ¿No crees?
-
Duncan
Felicidades, perfecto, lo has descrito perfectamente lo que quiero decir. !!!! Estoy totalmente de acuerdo contigo y eso es que lo que pretendo con esta rama. Pensaba que era la gente no se daba cuenta de esto.
Duncan dijo
Estos sitios ayudan a hacer compras, y el valor añadido de un producto es más importante que sacar 4 FPS más o 100 puntos 3DMark.
Claro, es lo que yo digo, si la diferencia de velocidad es poca , incluso en algunos casos insignificante, lo que importa realmente es la calidad de la tarjeta y sus funciones adicionales. Yo he visto dar por ganadora a una tarjeta solo porque en un benchmark tenía 15,9 y la otra tarjeta tenía 15,1 o que una tarjeta ganaba y era la mejor porque podía hacer una función 1 o 2 segundos más rápido que la otra. ¿ es que esto es tán importante? Además nos quieren hacer creer que un 5% de diferencia es MUCHA diferencia y yo creo que no.
Como dice Duncan, el valor añadido es lo que importa en estos casos para decidir cual es mejor y no el resultado de un benchhamrk donde no hay una clara diferencia.
O sea que en el caso de que ambas tengan un rendimiento similar, hay que comparar todas las funciones que lleva cada tarjeta y ver cual tiene más calidad o ofrece más para decidir cual es mejor.
Las review están hechas para informar a la gente y que puedan decidir cual es mejor según la información ofrecida y puedan decidir cual comprar, pero ¿ como hacerlo si la información es incompleta y solo incluye una parte ? Si, la velocidad y rendimiento es muy importante, pero NO lo es todo y más aún cuando las diferencia no es tan grande como para que sea notable.
Ahora mismo, no hay forma de cuantificar ese valor añadido según prácticamente ningún sitio. Y a mí ese valor añadido me interesa. Si una tarjeta se 'curra' la reproducción de vídeo limando los píxeles para que no aparezcan cuadros y otra no, a mí me interesa saberlo.
Eso es precisamente, las tarjetas actuales ya no son una simple GPU con memorias, ahora además hacen otras cosas y tienen MÁS funciones ADEMÁS de la aceleración 3D, como por ejemplo la reproducción de video porque evidentemente ya no se usa una descompresora de DVD por hardware como antes, no es necesario, ahora lo hace el software y el hardware del GPU y entonces depende de la calidad de este.
Pero se habla muy poco de esto en las comparativas, y solo a veces se mencionan las funciones extras de una tarjeta y raramente se explican como funcionan y si son de calidad o no, y si realmente estas funciones nuevas pueden ayudarnos y ser útiles o solo ser efecto del marketing.
Ahora la diferencia ya no es que sea más rápida o más lenta, es QUÉ funciones extras incluye y que efectos puede procesar con calidad, y no digo que no sea importante la velocidad ya que todas estas funciones extras no servirían si la tarjeta no tuviera velocidad suficiente para desarrollar estas funciones. Pero si la diferencia con la competencia es de un 5% o 10% NO es importante, lo que importa más es el resto.
Como dice Duncan, a mi me interesa saber que otras cosas útiles trae una tarjeta que nos va a ayudar a disfutar mejor de nuestro PC.
De la misma manera que Intel ha sacado el Pentium 4 con HT para mejorar el rendimiento y se ha explicado extensamente como funciona ese nuevo HT y se ha demostrado, que sea bueno o no , ya es cuestión personal de cada uno, pero has tenido la información necesaria para poder opinar ¿ porque no se demuestran y explican las nuevas funciones de una tarjeta gráfica para saber si son útiles y buenas o no?
Por ejemplo el VIVO que traen algunas tarjetas, es un extra adicional que no lleva relación con la velocidad, pues ¿ alguien ha hecho pruebas de la calidad de la entrada y salida de video ? ¿ si es en tiempo real o no?
Yo creo que alguna manera tiene que haber para comparar el VIVO de Nvidia con el de ATI.Como dice Duncan , no hay demostraciones de para que sirve realmente el smoothvision, o el Intellisample technology, o el smartshader, u otras nuevas funciones que se incluyen cuando te quieren vender la tarjeta.
Al comparar una y otra tarjeta te dan una lista de funciones que tiene cada una y te dicen lo que tiene una y la otra no, pero NO te explican para que sirven todas esas funciones, y lamentablemente no puedes creer al 100% en las explicaciones que te da el fabricante ya que están pueden estar muy influenciadas por el marketing y estas funciones nuevas pueden ponerlas muy bonitas e interesantes y luego no ser realmente tan útiles y necesarias como los fabricantes nos quieren hacer creer.
Y algunas de estas nuevas funciones son casi las mismas en ambas tarjetas pero con diferentes nombres, y entonces como dice Duncan, alguna forma debe haber de compararlas. Tal vez mostrando capturas de pantalla y explicando las diferencias entre ambas, ya que nosotros no somos expertos en detectar las diferencias pero ellos sí.
En las reviews de cámaras fotográficas digitales se le da mucha importancia a la calidad, intensidad y saturación del color, y ponen varias fotografías de las diferentes cámaras en diferentes situaciones y las analizan (ver www.dpreview.com ) y ven cál es mejor o peor.
¿ se analiza la calidad el color que da una tarjeta gráfica? NO , esto en teoría no importa, pero en una reviusta de diseño gráfico que conozco SI le dan importancia ya que es importante saber si tiene buena calidad de color y representa fielmente los colores como en la realidad ya que si se va a hacer retoque fotográfico o y luego se va a imprimir es importante saber que lo que vemos en pantalla se va a parecer a lo que tengamos impreso (esto también depende de la calida del monitor, claro)
Solo recuerdo una web que analizaran las salidas de TV y DVIO y la calidad del 2D y su nitidez.
Y no me digais que para diseño gráfico se usan tarjetas profesionales porque no es cierto, ahora ya no, ahora sólo se usan tarjetas profesionales a nivel de diseño 3D.
No se hacen comparativas de la calidad del VIVO, de la salida RGB y el Ramdac, del DVI y la salida de TV que depende directamente del fabricante de la tarjeta y me supongo que una tarjeta fabricada por Guillemot o ATI directamente, no se puede comparar a la calidad de una de CLUB 3D o de estas tarjetas sin marca o marca desconocida, ya que estas son más baratas y claro los componentes son peores, pero no se puede saber si realmente hay mucha o poca diferencia de calidad entre ambas opciones, teniendo en cuenta la diferencia de precio.
Pakohuelva
Entiendo que no se pueden comparar peras con manzanas, y que no se puede hacer un benchmark que de resultados diferentes, pero al menos si se inventan una nueva fruta (nueva función o extra) describir como es, y si realmente es útil y es buena aunque no se pueda comparar con otra cosa de la otra empresa.
Y además yo se que hay otros benchmark que NO solo miden la velociad y no los usan casi nunca.
Y las pruebas las podrían hacer de la misma manera que hacen las comparativas de los filtros AA y anisotrópico en solo algunas webs, que no todas las hacen.
Y si en esas imagenes que aparecen, a veces nosotros no vemos una diferencia real o aparente, ellos si son capaces de ver las diferencia porque son expertos y se dedican a eso y entonces pueden darse cuenta de que tarjeta es mejor.
yo estoy buscando en las webs y haciendo un informe como ya dije para demostar esto. Ya lo pondré cuando pueda terminarlo.
-
¿Tu sabes de lo que estas hablando?. Es que creo que no te he entendido bien o tu no te has explicado.
Segun entiendo a ti no te valen los test basados en Quake porque no exprimen tu tarjeta al maximo, por eso necesitas test Dx8 como el Unreal que si lo hacen, ¿es eso?. Pues si es eso estas muy equivocado.
Para empezar Dx es una mierda lo que hace que un juego en OpenGL obtenga la misma calidad que uno Dx con muchisimos menos recursos. Evidentemente como tu tienes una Radeon 9700 necesitas un juego que tire de recursos independientemente de que estos esten aprovechados o no.
Por ponerte un ejemplo el Jedi Knight II que usa el motor del Quake III, a maxima calidad a 1024 no funciona fluido en un 2000+ con una Radeon 8500. Tu diras que a ti eso te da igual porque tienes una tarjeta superior pero la mayoria de la gente tiene este tipo de tarjetas o inferiores (4200, etc).
Tampoco veo que hayas entendido mi explicacion. Si tu quieres comparar el rendimiento de una 9700 con el de una 4200 no puedes utilizar test que no funcionen en esta. De nada sirve que una 9700 de 1000 puntos en un test que puede ejecutar ella sola, ¿con que la comparas?.
Todo esto sin tener en cuenta un aspecto basico, no todos los juegos son Dx, hay muchos que son OpenGL y como lo que se busca es hacer pruebas lo mas reales posibles se deben unar juegos sobre ambas apis. De nada sirve que una tarjeta te de 10000 puntos en el 3DMArk si con un juego OGL va a dar 10 fps.
De todas formas esta rama no trataba de esto.
-
Pues no se que reviews mirais vosotros porque las que yo miro toda la tecnologia de la grafica esta explicada al detalle y con imagenes que lo aclaran.
Paro antes de nada tenemos que partir de que la calidad no se puede medir, esto es algo subjetivo. Medir la potencia de una grafica es sencillisimo, solo tienes que pasarle un test y ver cuantos fps da. ¿Pero como mides la calidad?. ¿Quien me dice a mi que cuando en una web ponen fotos de la calidad de las graficas y se ven mal no es por mi monitor?. ¿O que la calidad este lilmitada por el monitor o los cables?. Yo por lo menos soy incapaz de sitinguir la supuesta calidad de dos graficas en las fotos que ponen.
Si os pasaispor Anandtech podreis encontrar toda la informacion que querais sobre estas tecnologias. En el smoothvision por ejemplo explican que funciona con los shaders interpolando pixels y pone dos imagenes, una palicandoselo y otra no. En toms te ponen las imagenes sin compresion para que puedas ver la calidad de las mismas. ¿Que mas quereis?.
La reproduccion hardware de DVDs. Pues se ha hablado bastante de ella, las Ati tenian iDCT y otras cosillas desde hace años y las nvidia lo incorporaron con las GF4MX. ¿Sabeis porque no se hacen pruebas sobre el consumo de recursos reproduciendo DVDs?. Por dos razones, la primera que al que va acomprar una 9700 le importa poco eso, te compras esa tarjeta para jugar, para ver DVDs te compras una descompresora que te sale mas barato. La segunda, que las pruebas la realizan sobre Pentium 4HT o XP a 2800+ o mas en los que es virtualmente imposible cuantificar el uso de la ayuda hardware.
¿La calidad de las salidas TV?. Es rumor popular que la de las ATi es superior pero volvemos a lo mismo, ¿como lo demuestras?. Yo he visto analisis comparando las salidas de TV de las 4200 en funcion de los chips que llevaban, Conexant o Philips principalmente. Pero estas pruebas solo se puede hacer con comparativas de tarjetas iguales, no sirve para una 4200 y una 9700. Finalmente sigue siendo subjetivo.
Otra cosa que planteais es el Vivo. El vivo es un parche en una grafica y no sirve para nada. Esta claro que entre dos tarejtas graficas iguales y al mismo precio y una con Vivo y otra sin Vivo pues si es importante. Pero es que la calidad que se va abtener con una entrada Vivo es similar a la de una capturadora de television y a nadie se le ocurre usarla de otra forma que no sea ocasionalmente. Es comentais unas cosas, ¿es en tiempo real?. Pues depende del micro de tu Pc, para que fuera en tiempo real tendria que llevar chips para la compresion pero como no los lleva pues depende totalmente de la CPU.
El software, pues otra vez lo mismo, esta bien al mismo precio y caracteristicas pero nadie sacrifica memorias mas rapidas por 4 juegos mas que, no nos engañemos, puedes conseguir por otros medios.
Y hablando extrictamente de las pruebas pues se dejaron de usar los test sinteticos porque no reflejaban la realidad, por eso se empezaron a utilzar los test sobre juegos, si ahora vosotros quereis que se midan las capacidades unicas de las tarjetas estariamos en el mismo caso porque no se usan en los juegos. SOlo se pueden comparar las funciones comunes, ademas las extras no se usan.
¿Sabeis cuantos juego sutilizan la tecnologia trueform de Ati que aparecio con la 8500?. Pues yo solo recuerdo un parche para el RTCW, pero seguro que se pueden contar con los dedos.
En resumen, que entiendo lo que decis y que hay mucchos analisis que solo miran el rendimiento pero hay que saber buscar porque hay analisis muy buenos y extensos en los que la calidad de datos tecnicos aburre.
-
Packo… yo no entiendo de programacion ni de estas leche.s...
PEro si pusieramos una tarjeta ,.... mmm.. directx7 (ya se que esto da igual) pero de 600mhz de core.. y 1000mhz de memoria, 8 pipelines... .. no irai FENOMENAL el quake3???
Saludos
-
No he entendido tu pregunta.
P.D.: Como habeis visto he separado esta parte de la otra rama en la que creo que no pegaba nada y lo he puesto en esta que tiene un contenido mas aproximado.
-
Lo que digo es que siempre he pensado que el quake se basa mas en la fuerza bruta, ancho de banda de memoria, velocidad del core, pipelines.. que en la tecnologia de la grafica…
-
Bueno, tenemos que distinguir entre tecnologia de la grafica y el resto del sistema.
La tecnologia de la grafica incluye las pipelines, unidades de texturas, etc.
Lo curioso es que el Quake tiene mayor dependencia del hardware grafico que otros muchos juegos, no es exclusivo del Queke si no de todos los juegos basados en OGl, aunque esto es casi Queke y sus derivados.
Es una lastima que se le de tanta importancia al Dx frente al OGL cuando esta es una biblioteca tremendamente potente para lo que se diseño, los graficos. Ogl necesita que sus funcones esten implementadas es el hardware y no todo el hardware las implemente igual. En algunas reviews se puede ver la diferente implementacion de las funciones OGL de nVidia y Ati y es bastante curioso, normalmente ninguna las implementa completamente.
Una vez soltado este rollo decir que el Quake III se basa en la fuerza bruta del hardware grafico. En este caso concreto con las primeras graficas se veia esta diferencia claramente en las que eran capaces de aplicar mas texturas por ciclo de reloj, mientras mas capacidad de calculo depoligonos y texturas por ciclo mayor velocidad. Esto ya lo veremos con el Doom III.
Pero Dx hace exactamente lo mismo, eso si, menos elegantemente.
La diferencia entre ambos esta en que OGL es una libreeria exclusivamente de graficos, mas reducida y mucho mas estable en cuanto a nuevas versiones. De este modo una tarjeta de hace 3 años puede ser completamente compatible con OGL.
DirectX en cambio evoluciona mucho mas rapido (lo que no quiere decir que sea bueno) y una tarjeta compatible Dx7 por hardware podra ejecutar juegos DX8 pero tendra que emularlos por software con lo que la potencia de la grafica queda por detras de la potencia de todo el equipo.
Por esta razon una grafica Dx9 ejecutando exclusivamente software Dx7 no tiene que porque se mas rapida. En realidad lo es porque hace lo mismo que la otra pero mas rapido, es decir, en vez de funcionar a 200/200 Mhz ahora va a 400/400, pero si las dos funcionasen a la misma velocidad no tendria porque ser mas rapida.
En resumen, la dependencia del resto del PC y no solo del hardware grafico es mas patente en juegos Dx que OGL.
-
Pako,<br /><Respuesta a un comentario, pero OFF-TOPIC de la rama principal><br />No me había explicado. En verdad, me es igual DX7, DX8, DX9, u OpenGL. Lo que me interesa es que el juego sea lo más recargado posible, independientemente de la tecnología utilizada, para exprimir las tarjetas y dejar que la diferencia la marquen las tarjetas y no el micro.<br /><br />Ejemplo de lo que yo quería decir:<br /><a href="http://www.anandtech.com/video/showdoc.html?i=1683&p=10" target="_blank">http://www.anandtech.com/video/showdoc.html?i=1683&p=10</a> (Q3)<br /><a href="http://www.anandtech.com/video/showdoc.html?i=1683&p=6" target="_blank">http://www.anandtech.com/video/showdoc.html?i=1683&p=6</a> (UT 2003)<br /><br />Cuando está claro que la 9700 Pro es mucho mejor tarjeta que la 4600, se ve en el primer test que el límite lo pone el micro. Por eso creo que Q3 ahora mismo ya se va quedando 'vetusta' como herramienta de test, al menos para tarjetas de gama alta.<br /><br />Mi opinión te puede parecer curiosa, pero es cambiar una GeForce de las primeras por una 9700 cambia el estado mental de uno… ;)<br /><br /><br /><Respuesta al resto><br />He entendido tu explicación perfectamente, es obvia, no se pueden probar cosas distintas en distintas tarjetas. Y las extras que no se usen no entren en las comparativas, esto también pasa, y de hecho el Trueform es el mejor ejemplo. Pero todo lo demás, para mi, es una inquietud.<br />Mi compra ya está hecha, pero la he tenido que hacer sin la suficiente valoración en cuanto a calidad y valor añadido. En cuanto a potencia, te puedo asegurar que he valorado cada frame de más o menos en las pruebas... pero en cuanto al resto de factores, he tenido que ir un poco más "a la aventura".<br />Veo las reviews de Tom's y Anandtech con asiduidad, sobre todo estos últimos dos meses porque estaba esperando a cambiar de tarjeta gráfica. Coincido en que estas webs son maravillosas, y hacen lo que pueden, y explican algunas de las tecnologías que usan las gráficas (espero hayas visto en detalle mi primer comentario a quien inició el hilo).<br /><br />Por otra parte, he entendido tus explicaciones sobre los tests que proponíamos, pero es eso, una propuesta, al igual que las explicaciones, aunque en su mayoría acertadas, no rebajan mis inquietudes. Tómala como una lista de deseos que no he visto cumplidos en las webs anteriores (no nos engañemos, el hecho de que esta rama aparezca en Hardlimit no creo que llame la atención de estas webs), si conoces algún sitio donde se trate no dudes en decírmelo:<br />- No quiero dejar de lado la calidad diciendo que "no se puede medir".<br />- No quiero dejar de lado el software diciendo que "es secundario".<br />- No quiero dejar de lado algo tan sencillo hacer un listado de las características de una y otra tarjeta que aporten valor añadido al producto.<br />- No quiero prescindir de las características que no se usen en los juegos, sólo porque la 9700, la 4600, la GeforceFX, o la 9800, sean grandes tarjetas para jugar (¿No puedo comprar una tarjeta para jugar y para ver DVDs? ¿No puedo ser un diseñador gráfico que necesito máxima calidad pero no tengo la pasta para gastarme en una FireGL o una Quadro? ¿No puedo hacer mis pinitos editando vídeo profesional de forma casera?).<br />- No quiero prescindir de pruebas tan fáciles de hacer como el consumo CPU de la reproducción DVD por hardware (esta en concreto está tirada, porque es una prueba de potencia y no de calidad).<br /><br />Ten en cuenta que si hay voluntad, las pruebas de calidad se hacen, tanto calidad de color, calidad de salidas de TV... Por ejemplo, he visto al tío Tom realizar multitud de pruebas muy precisas sobre los niveles de cada color que varios monitores puede mostrar respecto a la misma tarjeta, pero jamás le he visto realizar la misma prueba con UN monitor (p.ej. un CRT de alta gama) y VARIAS tarjetas.<br /><br />P.D: Agradecería que me comentaras la web que indica los analisis en los que se comparan las salidas de TV, a ver si tengo más suerte que con Tom's o Anandtech.<br />P.P.D: Estás hecho un hacha, que la lista de deseos que quisiera que se cumplieran y no se puede se siga manteniendo no significa que no me haya quedado asombrado por tus conocimientos, que me han despejado bastantes otras dudas.
-
Ya imagine que te referias a que querias "quemar" la grafica. Pero te sigo recomendando que pruebas con el Jedi II y le pongas todo a tope, no va a ser como un UT pero chupa mas de lo que parece.
Y tranquilo, aunque ahora msimo el Quake III esta algo flojo (cualquier tarjeta da mas de 200fps) cuando llegue el Doom lo vamos a hechar de menos :risitas: Para que te hagas una idea: http://www.digit-life.com/articles2/radeon/r9800pro.html#p25
Sobre todo lo demas comparto vuestras inquietudes al 100% y estaria bien poder medir la calidad, pero siempre va a ser algo subjetivo aunque si bien es cierto que siempre las realiza la misma persona la subjetividad sera "cte". Lo que comentas de los monitores ya me lo habia planteado yo, si pueden medir la calidad de un monitor que es algo totalmente subjetivo.
Lo que si que no me convence es los de las tecnologias propias, basicamente porque supone un problema muy grave, mas de lo que podria parecer. Al principio cada chip implementaba sus propias instrucciones y los juegos se desarrollaban especificamente para un chip, si no tenias ese chip no podias jugar. Despues aparecieron las Glide y pasaba lo mismo pero todas las Vodoo estaban agrupadas y hasta que no aparecio Dx no empezo la cosa a aclararse un poco.
Si ahora volvemos a lo mismo cuando el programador se plante desarrollar un juego tendra que decantarse por una opcion, o programa para Ati o para nVidia (ahora mismo el resto cuenta poco). Logicamente programara para nVidia porque tiene un mayor numero de chips, per es que ademas entre ellas no son compatibles, no tienen los mismos efectos una 4200 que una FX.
Por esto todo lo que sea apartarse del extandar, por malo que sea, no es bueno para los usuarios.