¿ Porque todos miden las nuevas gráficas SOLO por la velocidad ? ¿ y la calidad?
-
Bueno, eso de medir otras cosas que no sea la velocidad… creo que no interesa a la gran mayoria, todos decimos, pues la mia se ve perfecta xD y eso lo decimos TODOS, lo que no podemos decir todos es "la mia es la mas rapida", por que ahi es donde realmente nosotros personalmente podemos comparar. No digo que sea lo correcto, pero hoy por hoy las cosas entran por los ojos, y no necesariamente lo tenemos que comprender, ver lo vemos todo bien por que los cambios de calidad son insignificantes, la mayoria de efectos son insignificantes, y aunque si es cierto que muchos se notan, no es un punto a tener en cuenta puesto que actualmente no usamos ni los que tenemos desde hace algunos años... y justamente por esas cosas, acabamos descartando hasta quedarnos todos con la velocidad. Y como se trabaja para atrapar al gran publico, deben ofrecer lo que al publico le interesa... yo personalmente veo una comparativa en la que se muestran 20 fotografias aplicando 5 tipos de motores de render que utilizan noseque tecnologias y me quedo medio atontao intentando notar las diferencias, y un poco alucinado pensando en quien puede ser el tonto que dice que alguna de esas fotografias se ve mal, puesto que a mi (en la mayoria de comparativas que he visto) todas me parecen muy aceptables. Pero la cosa canvia, cuando se que una targeta nueva le saca 20fps a otra, y mas si hablamos de los juegos actuales, que no se porque razones, aunque creo que es falta de optimizacion... consumen muchisimo y dan unos framerates lamentables, que para los mas exigentes no pasan la "prueva"...
-
Pues yo no estoy de acuerdo, SpaceRay, cada vez se presta mas atencion a la calidad de las graficas, se muestran capturas detalladas, se estudia la calidad del filtrado, los modos de antialiasing y un largo etcetera… La velocidad pura dejo de ser importante hace bastante, hoy dia tienen que ser rapidas pero a la vez con cuantas mas opciones de mejora visual activas mejor.
Salu2
-
Nemesis dijo
cada vez se presta mas atencion a la calidad de las graficas, se muestran capturas detalladas, se estudia la calidad del filtrado, los modos de antialiasing y un largo etcetera…
–--------------------------------------------------------------------------------
Yo estoy de acuerdo contigo en que las empresas fabricantes ahora le prestan más atención a la calidad de las gráficas y a la calidad del AA y para que los gráficos tengan el mayor nivel de detalle posible, como se puede ver en las fotos del ogro de Nvidia. Y las empresas sacan nuevas tecnologías para mejorar y favorecer la calidad y que tengan varios efectos variados y que se puedan hacer gráficos mejores.Pero es que estas tecnologías en muchas reviews NO se tienen en cuenta, ni se explican para que sirven, ni que diferencia hay entre las tecnologías de ATI y las de Nvidia. Y ponen varias páginas con muchas pruebas de velocidad y al final ponen que gana una u otra porque tiene mejor rendimiento y es más rápida en las pruebas de velocidad.
Y en las reviews de las webs hay más explicación, pero en un reportaje de las revistas ? Aqui como tienen menos sitio, solo hacen unas pruebas de velocidad y dicen por encima las características que tienen, y dan un ganador solo por que una es más rápida que la otra.
Y como tú bien dices y estoy totalmente de acuerdo
La velocidad pura dejo de ser importante hace bastante, hoy dia tienen que ser rapidas pero a la vez con cuantas mas opciones de mejora visual activas mejor.Pero ¿ se comparan estas opciones de mejoras visuales entre las tarjetas para saber cual es mejor ? Pues que yo sepa , se comparan muy poco, se le da más importancia a la velocidad, que como tu dices, ya dejo de ser lo más importante.
En las comparativas se debería de poner todo, o sea las pruebas de velocidad, la calidad de los componentes de la tarjeta, las opciones visuales y efectos varios que tiene la tarjeta y las cosas adicionales que pueda tener como extra (salida TV, salida DVI, VIVO, etc. ) , PERO esto se cumple pocas veces.
En esta comparativa se puede ver lo que digo
http://www.xbitlabs.com/articles/video/display/radeon9500-9700.html
Si yo me quisera comprar una tarjeta de esta comparativa quisiera saber todas las cosas sobre esas tarjetas y no SOLO cual es la más rápida.
-
Yo no lo veo tan mal como tu lo pones, insisto en que muchos articulos incluyen esa informacion que tu comentas: caracteristicas implementadas, tecnicas y tipo de filtrado y AA, rendimiento con esos modos activados a distinto nivel de calidad con o sin filtrado activo - a su vez con distintos niveles - y a distintas resoluciones, cuales son los modos mas recomendables para cada tarjeta para conseguir el punto ideal calidad/rapidez…
¿O es que no se hablaba y se criticaba ya en su epoca el render de 16 bits de 3dfx? ¿No se explico lo que era el AA cuando lo implentaron nvidia (por software mediante supersampling) o 3dfx (multisampling? ¿no fue una de las principales mejoras de la gf4 su alto rendimiento en AA? ¿no se habla de que las ATi implementan modos mas rapidos y mejores de AA y filtrado?
Quizas no se le de TODA la importancia que se merece, pero la calidad de imagen hoy por hoy se tiene MUY EN CUENTA en cualquier articulo medianamente digno. Si tu pones ese como ejemplo, yo podria poner muchos que podrian "demostrar" precisamente lo contrario... Considera que hacer lo que tu dices es mucho mas complejo y costoso que simplemente tomar cifras de rendimiento, asi que siempre sera menos comun. Pero no confundas una review con un articulo tecnico o un tutorial por ejemplo. En las revistas del motor por ejemplo no te andan comiendo la cabeza en cada articulo explicandote lo que es la inyeccion directa o lo que es un "common rail" por ejemplo...
Con todo, tienes bastante razon en quejarte, en muchos sitios solo te sueltan 4 graficas y ya esta, pero bueno, tiene que haber de todo ¿no?
Salu2
-
No se de donde sacaras esas conclusiones, yo en todos los analisis de webs de renombre he encontrado una prueba de calidad y mucho mas en Anandtech donde hace mucho tiempo que vienen probando la calidad de imagen.
Concretamente en el analisis que tu pones en la pagina 7, http://www.anandtech.com/video/showdoc.html?i=1794&p=7 , pone: For a look at how the Radeon 9x00 and the GeForce FX compare in terms of AA & Aniso image quality, refer back to our GeForce FX Review.
Es un enlace al analisis de la 5800 en la que comparaban la calidad con la 9700 y puesto que, segun su analisis, no hay diferencias de calidad es ridiculo que vuelvan a ponerlo.
Tambien lo he encontrado en Toms.
-
En los últimos análisis he visto que tanto en http://www.anandtech.com, como en http://www.tomshardware.com, a la hora de hablar de las gráficas, se habla también bastante del Anti-Aliasing y del filtro anisotrópico de uno y otro fabricante, y se indican sus ventajas y sus inconvenientes. Si no recuerdo mal, en la web de nuestro queridísimo Tío Tom se machacaba a nVidia precisamente por la pésima calidad del anisotrópico en relación a las tarjetas de ATI.
-
Si estoy de acuerdo en que se hacen comparaciones entre los filtros AA y los anisotropico y que en algunas webs se ponen fotos para ver la diferencia de calidad, pero y ¿ el resto de efectos ? ¿ es que solo existen estos dos efectos?
Yo antes dije
Porque no se habla más de las prestaciones y de las capacidades de las tarjetas y se explican sus funciones. Que se comparen las prestaciones de ambas y no solo se hagan pruebas de velocidad
Que se comparen los Smartshader , smoothvision, videoshader, fullstream y drivers catalyst de ATI con los CineFX cinematic high precision graphics , Intellisample technology, Nview technology, pixel shader y vertex shaders y detonator drivers
O sea lo que digo es que se comparen las nuevas tecnologías que lleven ambas tecnologías de la misma manera que se comparan los filtros AA y anisotropicos.
Y voy a hacer un estudio de las webs y las reviews para asi tener una visión más general y fresca y poder explicarlo mejor y también para encontrar más ejemplos.
Y que se diga lo que realmente sirve y es útil de estas nuevas tecnologías y que cosas son solo marketing y que luego no servirán. Yo no me quiero dejar llevar por lo que digan y por eso quiero tener opinion propia y que me demuestren que tiene una tarjeta y que tiene la otra, y porque ATI o Nvidia (u otra) puede ser la mejor opción y no me vale eso de que sea la más rápida estando en Marzo del 2003, que ya esto no es una cosa imprescindible.
-
Vale, ahora entiendo lo que querías decir. Tienes razón.
En las webs no se pueden comparar todos los efectos que mencionas en todas las comparativas. Lo más que se indica es, en las reviews técnicas, el comportamiento de estos efectos (y a veces, con mucha suerte, se hace una comparativa 'sobre el papel' con cómo funciona la competencia).
El trabajo es más difícil porque hay que pasar de los benchmarks, hay que recoger un poco de aquí y de allá de las "PREviews" -y no las reviews- de los chips, en donde a falta de benchmarks por no estar el monstruito disponible, se dedican en los sitios hardware precisamente a explicar las cosas técnicas.
Recuerdo artículos de anandtech y tom's donde se explicaban en detalle cosas como el Z-Buffer o el Smoothvision.
Por ejemplo, para mirar las características técnicas:
En lugar de:
http://www.anandtech.com/video/showdoc.html?i=1779,
que me encontraría los benchmarks, yo me iría a…
http://www.anandtech.com/video/showdoc.html?i=1749En concreto, páginas como ésta serán las que busques, pero como te digo, tienes razón, NO hay comparativas…:
http://www.anandtech.com/video/showdoc.html?i=1749&p=5 -
Y digo yo… como de fiable es un test con el quake3, este siendo directx7 y la tarjeta directx9..
Como si le sale 4 veces mas rapida.. a ver si menos MARKETING y mas realidad.. que pongan juegos directx8 y un par de 3dmark2003. a ver si realmente tira.. y con filtros activados..
-
¿Pensemos un porquito?.
Un benchk solo tiene sentido si dos priductos pueden ejecutar la misma prueba, si cada uno pasa pruebas distintas no sirve de nada. Si uno corre en UT y le da 200 puntos y el otro el Quake y le da 25 no significa nada.
Partiendo de esta base, ¿con que comparamos el trueForm de Ati?, nVidia no tiene su equivalente pero aunque asi fuese no podria compararse porque no serian lo mismo. La unica forma de probarlas es que pasen las mismas pruebas y eso significa que esten programadas de la misma forma.
Si todas las tarjetas corren OpenGL o DirectX pues sera esta la forma de que hagan las pruebas.
Esto se basa en las capas de abstraccion, mientras mas cerca de un hardware hagas una pruaba mas lejos del otro estara y entramos en lo que ya hemos discutido, la optimizacion. Si en vez de programar un juego en Dx lo hicieran "a pelo" y usaran las carcteristicas hardware de cada chip podriamos correr el ultimo juego en una GF3 a maxima claidad y velocidad sin problemas.
Por lo tanto solo se pueden hacer pruebas de aquellas funciones implementadas en ambas plataformas o bien que muestren el mismo resultado aun haciendose de forma diferente, pero no cuando no tienen nada que ver.
-
El Queke III es OpenGL al igual que todos los Quekes anteriores y sus derivados incluyendo Half Life, Wolfstein, JediKnight, etc.
Precisamente mientra mas antigua es la version de Dx que se pasa mas fiable es la prueba porque asi todas las funciones estan implementadas por hardware. Por ejemplo, la GF4MX es directX 7, si pasa una prueba Dx9 el rendimiento sera inferior a una con soporte por hardware DX9 pero no al reves. Una GF4MX puede ser mas rapida que una GF3Ti500 en una prueba directx 7. Realmente no lo es porque a aumentado la velocidad a la que hace los mismos calculos…
-
Entonces ya puestos pako, que hagan una prueba con el Quake I…
Un Quake 3 no me parece lo mejor de lo mejor para probar una tarjeta. Es un test más, pero yo necesito un test con una aplicación, al menos, DirectX 8, o con un UT2003 o Unreal 2, para exprimir al máximo las tarjetas, y es que estas tarjetas de gama super-alta hay que hacerlas sudar, o solamente notas diferencias marginales entre ellas...
Bueno, sí, Q3 1600x1200, FSAA, AA, es sudar, me refiero a exprimirlas hasta que no quede de ellas más que una pulpa sanguinolenta... ho ho ho
Además, estoy seguro -y es una impresión- de que todos los drivers traerán optimizaciones más que sobradas para Quake 3.
-
Si no contara, todos los fabricantes solamente implementarían funciones estándar.
Ahora mismo, no hay forma de cuantificar ese valor añadido según prácticamente ningún sitio. Y a mí ese valor añadido me interesa. Si una tarjeta se 'curra' la reproducción de vídeo limando los píxeles para que no aparezcan cuadros y otra no, a mí me interesa saberlo.
Y no hace falta irse a funciones no implementadas en ATI y sí en nVidia. Por ejemplo, algunas veces he echado de menos pruebas sobre el porcentaje de CPU que las tarjetas 'chupan' en la reproducción de un vídeo, o pruebas de rendimiento de la decodificación MPEG-2.
Tampoco se compara el software que traen, a veces echo de menos que comparen el Hydravision con el sistema multiescritorio y multimonitor de nVidia. O que digan qué diferencias hay entre los paneles de control de ambas.
Tampoco hay tests de color, o de calidad de la salida de TV, y en prácticamente todas las webs sólo se indica que una tarjeta tiene salidas "DVI, VGA y TV", sin explicar la simultaneidad de las salidas, que es otro posible valor añadido.
Es difícil comparar todas las tecnologías que traen las tarjetas. Pero algunas hacen prácticamente lo mismo y estoy seguro que algún benchmark podría hacerse. Y si no se puede, porque no hagan lo mismo, por lo menos EXPLICARLAS. Hay análisis con páginas y páginas de diferencias al aplicar FSAA a una imagen, pero son incapaces de ponerte una imagen con y sin Smoothvision, o de explicarte lo que es en más de dos líneas.
En resumen, pako, estoy de acuerdo en que es difícil, no es estándar, pero hay que intentarlo. Estos sitios ayudan a hacer compras, y el valor añadido de un producto es más importante que sacar 4 FPS más o 100 puntos 3DMark. ¿No crees?
-
Duncan
Felicidades, perfecto, lo has descrito perfectamente lo que quiero decir. !!!! Estoy totalmente de acuerdo contigo y eso es que lo que pretendo con esta rama. Pensaba que era la gente no se daba cuenta de esto.
Duncan dijo
Estos sitios ayudan a hacer compras, y el valor añadido de un producto es más importante que sacar 4 FPS más o 100 puntos 3DMark.
Claro, es lo que yo digo, si la diferencia de velocidad es poca , incluso en algunos casos insignificante, lo que importa realmente es la calidad de la tarjeta y sus funciones adicionales. Yo he visto dar por ganadora a una tarjeta solo porque en un benchmark tenía 15,9 y la otra tarjeta tenía 15,1 o que una tarjeta ganaba y era la mejor porque podía hacer una función 1 o 2 segundos más rápido que la otra. ¿ es que esto es tán importante? Además nos quieren hacer creer que un 5% de diferencia es MUCHA diferencia y yo creo que no.
Como dice Duncan, el valor añadido es lo que importa en estos casos para decidir cual es mejor y no el resultado de un benchhamrk donde no hay una clara diferencia.
O sea que en el caso de que ambas tengan un rendimiento similar, hay que comparar todas las funciones que lleva cada tarjeta y ver cual tiene más calidad o ofrece más para decidir cual es mejor.
Las review están hechas para informar a la gente y que puedan decidir cual es mejor según la información ofrecida y puedan decidir cual comprar, pero ¿ como hacerlo si la información es incompleta y solo incluye una parte ? Si, la velocidad y rendimiento es muy importante, pero NO lo es todo y más aún cuando las diferencia no es tan grande como para que sea notable.
Ahora mismo, no hay forma de cuantificar ese valor añadido según prácticamente ningún sitio. Y a mí ese valor añadido me interesa. Si una tarjeta se 'curra' la reproducción de vídeo limando los píxeles para que no aparezcan cuadros y otra no, a mí me interesa saberlo.
Eso es precisamente, las tarjetas actuales ya no son una simple GPU con memorias, ahora además hacen otras cosas y tienen MÁS funciones ADEMÁS de la aceleración 3D, como por ejemplo la reproducción de video porque evidentemente ya no se usa una descompresora de DVD por hardware como antes, no es necesario, ahora lo hace el software y el hardware del GPU y entonces depende de la calidad de este.
Pero se habla muy poco de esto en las comparativas, y solo a veces se mencionan las funciones extras de una tarjeta y raramente se explican como funcionan y si son de calidad o no, y si realmente estas funciones nuevas pueden ayudarnos y ser útiles o solo ser efecto del marketing.
Ahora la diferencia ya no es que sea más rápida o más lenta, es QUÉ funciones extras incluye y que efectos puede procesar con calidad, y no digo que no sea importante la velocidad ya que todas estas funciones extras no servirían si la tarjeta no tuviera velocidad suficiente para desarrollar estas funciones. Pero si la diferencia con la competencia es de un 5% o 10% NO es importante, lo que importa más es el resto.
Como dice Duncan, a mi me interesa saber que otras cosas útiles trae una tarjeta que nos va a ayudar a disfutar mejor de nuestro PC.
De la misma manera que Intel ha sacado el Pentium 4 con HT para mejorar el rendimiento y se ha explicado extensamente como funciona ese nuevo HT y se ha demostrado, que sea bueno o no , ya es cuestión personal de cada uno, pero has tenido la información necesaria para poder opinar ¿ porque no se demuestran y explican las nuevas funciones de una tarjeta gráfica para saber si son útiles y buenas o no?
Por ejemplo el VIVO que traen algunas tarjetas, es un extra adicional que no lleva relación con la velocidad, pues ¿ alguien ha hecho pruebas de la calidad de la entrada y salida de video ? ¿ si es en tiempo real o no?
Yo creo que alguna manera tiene que haber para comparar el VIVO de Nvidia con el de ATI.Como dice Duncan , no hay demostraciones de para que sirve realmente el smoothvision, o el Intellisample technology, o el smartshader, u otras nuevas funciones que se incluyen cuando te quieren vender la tarjeta.
Al comparar una y otra tarjeta te dan una lista de funciones que tiene cada una y te dicen lo que tiene una y la otra no, pero NO te explican para que sirven todas esas funciones, y lamentablemente no puedes creer al 100% en las explicaciones que te da el fabricante ya que están pueden estar muy influenciadas por el marketing y estas funciones nuevas pueden ponerlas muy bonitas e interesantes y luego no ser realmente tan útiles y necesarias como los fabricantes nos quieren hacer creer.
Y algunas de estas nuevas funciones son casi las mismas en ambas tarjetas pero con diferentes nombres, y entonces como dice Duncan, alguna forma debe haber de compararlas. Tal vez mostrando capturas de pantalla y explicando las diferencias entre ambas, ya que nosotros no somos expertos en detectar las diferencias pero ellos sí.
En las reviews de cámaras fotográficas digitales se le da mucha importancia a la calidad, intensidad y saturación del color, y ponen varias fotografías de las diferentes cámaras en diferentes situaciones y las analizan (ver www.dpreview.com ) y ven cál es mejor o peor.
¿ se analiza la calidad el color que da una tarjeta gráfica? NO , esto en teoría no importa, pero en una reviusta de diseño gráfico que conozco SI le dan importancia ya que es importante saber si tiene buena calidad de color y representa fielmente los colores como en la realidad ya que si se va a hacer retoque fotográfico o y luego se va a imprimir es importante saber que lo que vemos en pantalla se va a parecer a lo que tengamos impreso (esto también depende de la calida del monitor, claro)
Solo recuerdo una web que analizaran las salidas de TV y DVIO y la calidad del 2D y su nitidez.
Y no me digais que para diseño gráfico se usan tarjetas profesionales porque no es cierto, ahora ya no, ahora sólo se usan tarjetas profesionales a nivel de diseño 3D.
No se hacen comparativas de la calidad del VIVO, de la salida RGB y el Ramdac, del DVI y la salida de TV que depende directamente del fabricante de la tarjeta y me supongo que una tarjeta fabricada por Guillemot o ATI directamente, no se puede comparar a la calidad de una de CLUB 3D o de estas tarjetas sin marca o marca desconocida, ya que estas son más baratas y claro los componentes son peores, pero no se puede saber si realmente hay mucha o poca diferencia de calidad entre ambas opciones, teniendo en cuenta la diferencia de precio.
Pakohuelva
Entiendo que no se pueden comparar peras con manzanas, y que no se puede hacer un benchmark que de resultados diferentes, pero al menos si se inventan una nueva fruta (nueva función o extra) describir como es, y si realmente es útil y es buena aunque no se pueda comparar con otra cosa de la otra empresa.
Y además yo se que hay otros benchmark que NO solo miden la velociad y no los usan casi nunca.
Y las pruebas las podrían hacer de la misma manera que hacen las comparativas de los filtros AA y anisotrópico en solo algunas webs, que no todas las hacen.
Y si en esas imagenes que aparecen, a veces nosotros no vemos una diferencia real o aparente, ellos si son capaces de ver las diferencia porque son expertos y se dedican a eso y entonces pueden darse cuenta de que tarjeta es mejor.
yo estoy buscando en las webs y haciendo un informe como ya dije para demostar esto. Ya lo pondré cuando pueda terminarlo.
-
¿Tu sabes de lo que estas hablando?. Es que creo que no te he entendido bien o tu no te has explicado.
Segun entiendo a ti no te valen los test basados en Quake porque no exprimen tu tarjeta al maximo, por eso necesitas test Dx8 como el Unreal que si lo hacen, ¿es eso?. Pues si es eso estas muy equivocado.
Para empezar Dx es una mierda lo que hace que un juego en OpenGL obtenga la misma calidad que uno Dx con muchisimos menos recursos. Evidentemente como tu tienes una Radeon 9700 necesitas un juego que tire de recursos independientemente de que estos esten aprovechados o no.
Por ponerte un ejemplo el Jedi Knight II que usa el motor del Quake III, a maxima calidad a 1024 no funciona fluido en un 2000+ con una Radeon 8500. Tu diras que a ti eso te da igual porque tienes una tarjeta superior pero la mayoria de la gente tiene este tipo de tarjetas o inferiores (4200, etc).
Tampoco veo que hayas entendido mi explicacion. Si tu quieres comparar el rendimiento de una 9700 con el de una 4200 no puedes utilizar test que no funcionen en esta. De nada sirve que una 9700 de 1000 puntos en un test que puede ejecutar ella sola, ¿con que la comparas?.
Todo esto sin tener en cuenta un aspecto basico, no todos los juegos son Dx, hay muchos que son OpenGL y como lo que se busca es hacer pruebas lo mas reales posibles se deben unar juegos sobre ambas apis. De nada sirve que una tarjeta te de 10000 puntos en el 3DMArk si con un juego OGL va a dar 10 fps.
De todas formas esta rama no trataba de esto.
-
Pues no se que reviews mirais vosotros porque las que yo miro toda la tecnologia de la grafica esta explicada al detalle y con imagenes que lo aclaran.
Paro antes de nada tenemos que partir de que la calidad no se puede medir, esto es algo subjetivo. Medir la potencia de una grafica es sencillisimo, solo tienes que pasarle un test y ver cuantos fps da. ¿Pero como mides la calidad?. ¿Quien me dice a mi que cuando en una web ponen fotos de la calidad de las graficas y se ven mal no es por mi monitor?. ¿O que la calidad este lilmitada por el monitor o los cables?. Yo por lo menos soy incapaz de sitinguir la supuesta calidad de dos graficas en las fotos que ponen.
Si os pasaispor Anandtech podreis encontrar toda la informacion que querais sobre estas tecnologias. En el smoothvision por ejemplo explican que funciona con los shaders interpolando pixels y pone dos imagenes, una palicandoselo y otra no. En toms te ponen las imagenes sin compresion para que puedas ver la calidad de las mismas. ¿Que mas quereis?.
La reproduccion hardware de DVDs. Pues se ha hablado bastante de ella, las Ati tenian iDCT y otras cosillas desde hace años y las nvidia lo incorporaron con las GF4MX. ¿Sabeis porque no se hacen pruebas sobre el consumo de recursos reproduciendo DVDs?. Por dos razones, la primera que al que va acomprar una 9700 le importa poco eso, te compras esa tarjeta para jugar, para ver DVDs te compras una descompresora que te sale mas barato. La segunda, que las pruebas la realizan sobre Pentium 4HT o XP a 2800+ o mas en los que es virtualmente imposible cuantificar el uso de la ayuda hardware.
¿La calidad de las salidas TV?. Es rumor popular que la de las ATi es superior pero volvemos a lo mismo, ¿como lo demuestras?. Yo he visto analisis comparando las salidas de TV de las 4200 en funcion de los chips que llevaban, Conexant o Philips principalmente. Pero estas pruebas solo se puede hacer con comparativas de tarjetas iguales, no sirve para una 4200 y una 9700. Finalmente sigue siendo subjetivo.
Otra cosa que planteais es el Vivo. El vivo es un parche en una grafica y no sirve para nada. Esta claro que entre dos tarejtas graficas iguales y al mismo precio y una con Vivo y otra sin Vivo pues si es importante. Pero es que la calidad que se va abtener con una entrada Vivo es similar a la de una capturadora de television y a nadie se le ocurre usarla de otra forma que no sea ocasionalmente. Es comentais unas cosas, ¿es en tiempo real?. Pues depende del micro de tu Pc, para que fuera en tiempo real tendria que llevar chips para la compresion pero como no los lleva pues depende totalmente de la CPU.
El software, pues otra vez lo mismo, esta bien al mismo precio y caracteristicas pero nadie sacrifica memorias mas rapidas por 4 juegos mas que, no nos engañemos, puedes conseguir por otros medios.
Y hablando extrictamente de las pruebas pues se dejaron de usar los test sinteticos porque no reflejaban la realidad, por eso se empezaron a utilzar los test sobre juegos, si ahora vosotros quereis que se midan las capacidades unicas de las tarjetas estariamos en el mismo caso porque no se usan en los juegos. SOlo se pueden comparar las funciones comunes, ademas las extras no se usan.
¿Sabeis cuantos juego sutilizan la tecnologia trueform de Ati que aparecio con la 8500?. Pues yo solo recuerdo un parche para el RTCW, pero seguro que se pueden contar con los dedos.
En resumen, que entiendo lo que decis y que hay mucchos analisis que solo miran el rendimiento pero hay que saber buscar porque hay analisis muy buenos y extensos en los que la calidad de datos tecnicos aburre.
-
Packo… yo no entiendo de programacion ni de estas leche.s...
PEro si pusieramos una tarjeta ,.... mmm.. directx7 (ya se que esto da igual) pero de 600mhz de core.. y 1000mhz de memoria, 8 pipelines... .. no irai FENOMENAL el quake3???
Saludos
-
No he entendido tu pregunta.
P.D.: Como habeis visto he separado esta parte de la otra rama en la que creo que no pegaba nada y lo he puesto en esta que tiene un contenido mas aproximado.
-
Lo que digo es que siempre he pensado que el quake se basa mas en la fuerza bruta, ancho de banda de memoria, velocidad del core, pipelines.. que en la tecnologia de la grafica…
-
Bueno, tenemos que distinguir entre tecnologia de la grafica y el resto del sistema.
La tecnologia de la grafica incluye las pipelines, unidades de texturas, etc.
Lo curioso es que el Quake tiene mayor dependencia del hardware grafico que otros muchos juegos, no es exclusivo del Queke si no de todos los juegos basados en OGl, aunque esto es casi Queke y sus derivados.
Es una lastima que se le de tanta importancia al Dx frente al OGL cuando esta es una biblioteca tremendamente potente para lo que se diseño, los graficos. Ogl necesita que sus funcones esten implementadas es el hardware y no todo el hardware las implemente igual. En algunas reviews se puede ver la diferente implementacion de las funciones OGL de nVidia y Ati y es bastante curioso, normalmente ninguna las implementa completamente.
Una vez soltado este rollo decir que el Quake III se basa en la fuerza bruta del hardware grafico. En este caso concreto con las primeras graficas se veia esta diferencia claramente en las que eran capaces de aplicar mas texturas por ciclo de reloj, mientras mas capacidad de calculo depoligonos y texturas por ciclo mayor velocidad. Esto ya lo veremos con el Doom III.
Pero Dx hace exactamente lo mismo, eso si, menos elegantemente.
La diferencia entre ambos esta en que OGL es una libreeria exclusivamente de graficos, mas reducida y mucho mas estable en cuanto a nuevas versiones. De este modo una tarjeta de hace 3 años puede ser completamente compatible con OGL.
DirectX en cambio evoluciona mucho mas rapido (lo que no quiere decir que sea bueno) y una tarjeta compatible Dx7 por hardware podra ejecutar juegos DX8 pero tendra que emularlos por software con lo que la potencia de la grafica queda por detras de la potencia de todo el equipo.
Por esta razon una grafica Dx9 ejecutando exclusivamente software Dx7 no tiene que porque se mas rapida. En realidad lo es porque hace lo mismo que la otra pero mas rapido, es decir, en vez de funcionar a 200/200 Mhz ahora va a 400/400, pero si las dos funcionasen a la misma velocidad no tendria porque ser mas rapida.
En resumen, la dependencia del resto del PC y no solo del hardware grafico es mas patente en juegos Dx que OGL.