Datos definitivos de la gama X1 (ojo 56k)
-
Eso se llama estar limitado por la CPU. En este caso, el test es irrelevante ya que no aporta información sobre la potencia relativa entre esas dos tarjetas, por lo que habría que analizar niveles superiores de resolución o calidad gráfica.
Hay dos cosas que me llaman la atención de las reviews de estos primeros dias. Lo primero es lo diferentes que son los resultados en función de la página. Algunas páginas dan diferencias muy altas, otras relativamente bajas. Habrá que esperar a que se asiente la capa de polvo para ver como evoluciona el asunto. Lo segundo es que ATI tiene mucho que mejorar en sus drivers en cuanto a frames por segundo, ya que no es normal que en algunos juegos la X850XT se aproxime tanto a la X1800XT, y supere a la X1800XL. Tiene toda la pinta que existe ineficiencia a nivel de drivers, por lo que lo normal es que el rendimiento aumente en sucesivas versiones.
¿Por qué dices que el Quake4, el Fear o el UT2007 van a funcionar mejor en tarjetas nVidia? ¿Porque nVidia paga por publicidad? No hay que escarvar mucho para encontrar muchos casos de juegos patrocinados por nVidia que funcionan mejor en tarjetas ATI, como el caso del FarCry, Splinter cell, Painkiller, Battlefield 2… Además, en el caso concreto del UT2007 Epic ha afirmado que va a utilizar "extensivamente" el dynamic branching, así que...
Y sobre lo de mucho que ofrecer... Bueno, si no consideras mucho que ofrecer a la mejora de calidad gráfica que proporciona el hecho de HDR+AA, anisotrópico sin depender del ángulo y trilineal en todos los niveles de texturas (los que hayan sufrido el shimmering saben la gran ventaja que ésto supone) o la decodificación por hardware de H264, el codec que utilizarán tanto blu-ray como HD-DVD (que recordemos que las CPU actuales no pueden con él en tiempo real) entre otras mejoras menos "apreciables" desde un punto de vista no-técnico.
PD: Se que mi punto de vista no es objetivo, estoy viendo más las posibilidades técnicas y la implementación tecnológica de la gama que el rendimiento con juegos actuales. Me puedo equivocar, pero me parece que las diferencias deben tender a más con el paso del tiempo. Esto no hace que la 7800GTX sea una mala tarjeta, ni mucho menos (Hoy es la mejor, dentro de un mes no) y su relación calidad-precio es muy buena, magnífica, pero lo que me atrae más es las posibilidades que tiene esta arquitectura, a parte de que todavía no sabemos los precios reales de tienda de las tarjetas ATI. Tiene una flexibilidad en la programación, en el diseño de los chips (a la hora de seleccionar bloques funcionales)... que permitirá a ATI desarrollarse sobre ella durante mucho tiempo. Es como el R300, un punto de partida magnífico para desarrollar toda una gama, lo que pasa es que esta vez tiene una competencia real, no como en el caso de entonces que competía con la gama FX.
-
Tambien opino que los avances tecnológicos de la nueva serie de ATI (en cuanto a la calidad de imagen) son superiores que los de la serie 7 de nVidia; pero en mi opinion la apuesta que ha echo ATI es muy arriesgada. Como bien sabes, la mayoria de las reviews que puedes encontrar de cualquier gráfica se basan principalmente en el rendimiento y no en la calidad de las imagenes. Llama mucho mas la atencion el echo de que una targeta sea capaz de generar cada vez mas fps, que la implementacion del HDR+AA, etc.. La mayotia de la gente no se fija en esas cosas, solo en el rendiemiento.
Tambien hay gente que opina (yo me incluyo entre ellos) que ¿para que quiero 150 fps a 1280? Quizas seria una mejor idea utulizar toda la potencia de la GPU en generar mas cosas (texturas, renders, etc..) que mejoren la calidad del juego; ya que el ojo humano con 25 fps nota una secuancia continua de imagenes (no nota saltos). En mi caso, prefiero una targeta que de 50 fps pero que pueda poner todos los filtros al maximo y lo mas importante, que la calidad de la imagen sea lo mejor posible.
-
Tambien hay gente que opina (yo me incluyo entre ellos) que ¿para que quiero 150 fps a 1280? Quizas seria una mejor idea utulizar toda la potencia de la GPU en generar mas cosas (texturas, renders, etc..) que mejoren la calidad del juego; ya que el ojo humano con 25 fps nota una secuancia continua de imagenes (no nota saltos). En mi caso, prefiero una targeta que de 50 fps pero que pueda poner todos los filtros al maximo y lo mas importante, que la calidad de la imagen sea lo mejor posible.
Para eso mismo esta ahí la nueva gama de ATI
-
Pero la gran mayoria de la gente no opina de igual forma. Como he dicho antes, en casi todas las reviews lo que prima es el rendimiento y no la calidad de la imagen. Por eso he dicho que me parecia una apuesta arriesgada.
-
Pero la gran mayoria de la gente no opina de igual forma. Como he dicho antes, en casi todas las reviews lo que prima es el rendimiento y no la calidad de la imagen. Por eso he dicho que me parecia una apuesta arriesgada.
Siempre es un riesgo, o eso pienso yo. Cuando diseñas un juego, un S.O. , un micro o una GPU, por ejemplo, pues corres muchos riesgos. De todas maners a Ati no le pintara nada mal con esta nueva generacion. Desde mi punto de vista creo que nvidia y ati tienen, en sus nuevas gráficas, muy buenos productos.
Esperemos que la competencia entre estos dos titanes nos conduzca a unos precios mas bajos en todas las gamas xD. O no es verdad??
Saludos!!
P.D: muy buena investigación, Kynes, (respecto al tema de este hilo)
-
Radeon x1800xt tecnologia 0,09 micras, 625mhz de core, 512 de gddr3 a 750mhz, con tan solo 16 pipelines me dice dos
cosas: 1- Arquitectura muy ajustada al maximo 2-El dicho de que las tarjetas ati casi no se calientan va a terminar con
este modelo, fuente de alimentacion de 500w casi seguro y de 75 a 85 grados detemperatura estimo que va a atener el tarjeton este. Que alguien me corrija si me equivoco -
El hecho de tener las unidades de texturas desacopladas de las unidades de píxeles permite una flexibilidad muy superior en el diseño, como se puede ver en la tabla en esta comparativa, por lo que puedes introducir unidades de píxeles a voluntad ya que no necesitas una relación fija con las de texturas (permite aumentar el rendimiento en los casos en los que la limitación son los shaders, con un consumo "limitado" de transistores) manteniendo esos 16 "pipelines" (hoy en día hablar de pipelines es complicado, porque te puedes referir a unidades de texturas, unidades de sombreado de píxeles, unidades de cálculo de profundidad en el búfer Z, unidades de renderizado…)
Fíjate en el esquema de la R520 y de la RV530, la gama media, en esta página. En vez de tener una relación uno a uno entre unidades de píxeles y unidades de texturas como la R520, tiene una relación tres a uno. Esta misma relación es la que va a tener la siguiente tarjeta de la gama, la R580, por lo que el futuro de la gama está ya diseñado y garantizado.
El problema del consumo no es tanto del chip (que tiene su parte de culpa) como de la memoria, es el doble de cantidad con una memoria que necesita mayor tensión (2V en vez de 1'8V que utilizan los chips en la 7800GT) y a mucha mayor velocidad. Si pones esa memoria en una 7800GT también se te dispara el consumo… Solo hay que ver el consumo de una X1800XL, que es superior al de la 7800GT en solo 2'5W. Esta tarjeta, con 256 megas de RAM, supongo que debe estar algo por encima de 80W, que es lo que consume la 7800GTX, pero no llegaría ni mucho menos a los 110W que se supone que consume la de 512 megas. Todo esto no contradice el hecho de que sea una aberración una tarjeta con ese consumo. Una comparativa, aqui: http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
-
texturas desacopladas de las unidades de píxeles unidades de sombreado de píxeles, unidades de cálculo de profundidad en el búfer Z, unidades de renderizado…
kynes yo me pierdo por el camino ¿Donde has aprendido tanto?
A mi lo que me llama la atencion son los numeros de los mhz de la tarjeta son muy altos y seguro que generan mucho calor. Supongo que eso es lo que nos nos depara el futuro
pd: si tienes una tarjeta vieja tanto 7800 como x1800 te van a satisfacer.
No puedes pedir que un mercedes sea como un bmw -
No, claro. Por supuesto que las dos te van a satisfacer. Además, ya he dicho que me parece que la mejor en relación calidad-precio ahora mismo es la 7800GTX (más que nada porque la X1800XT todavía no se vende)
Lo de los MHz altos, bueno… cada arquitectura tiende por un camino. Puedes tender a la anchura (muchas operaciones por cada ciclo de reloj) o a muchos ciclos cada segundo. Lo ideal es ambas cosas, muchas operaciones cada ciclo y muchos ciclos cada segundo. Lo normal es que la siguente tarjeta de gama alta (R580) realice más operaciones cada ciclo, y pueda bajar la velocidad para ahorrar consumo, pero en este modelo se dispararía el número de transistores y no lo han considerado oportuno. Cuando diseñas una tarjeta, teniendo en cuenta el tamaño de los transistores y el tamaño final del chip que quieres, calculas el número de transistores de los que dispones. Para poder introducir ciertas mejoras necesarias para mejorar el rendimiento en algunos aspectos, han tenido que recortar el número de transistores en otros, y como el proceso (el tamaño de los transistores) y el diseño interno del chip lo permiten, han subido la velocidad de reloj hasta niveles elevados. No es la solución ideal, pero era o eso o recortar por otro lado. Es una cuestión de elecciones en el diseño de la tarjeta, que te impone ciertas cosas.
-
o la decodificación por hardware de H264, el codec que utilizarán tanto blu-ray como HD-DVD (que recordemos que las CPU actuales no pueden con él en tiempo real)
A pesar de ser totalmente Off-Topic: Esto no es del todo cierto. Actualmente si que las CPU actuales si pueden con el codec H264 a la hora de decodificar. No así con la codificación que sigue siendo muy costosa en procesamiento (pero los codecs MPEG-4 ASP a pleno rendimiento tampoco se pueden codificar a tiempo real a resoluciones medias).
-
Depende del procesador, de la resolución del video… a 420i vale, a 1080p dudo que ningún procesador actual pueda con él. Además se supone (la capacidad en el hardware está) que ayuda a la compresión también.
-
A ver kynes, tu dices que los tios primero meten todos los transistores que piensan que necesitaran para esa generacion, y segun eso despues piensan si es mejor mantener tantos a menos mhz o meter menos a mas mhz. O cambian de sitio los transistores para mas rendimiento en otro lugar y penalizan en ese. Que complicado es esto del diseño de gpus.
-
Más o menos es como dices. Primero hacen una estimación de lo que quieren obtener, en función de sus productos anteriores, de los que suponen que va a tener la competencia, y del coste por chip que consideran que va a ser rentable. En función de estos parámetros, deciden con qué tamaño de transistor les conviene fabricarlo. Normalmente cuando pasas a un tamaño menor, sueles tener algunos problemas de diseño, como le pasó a Intel con el prescott o le ha pasado a ATI con un problema de ruido en las patillas de tierra del controlador de memoria del chip. Este problema es el que no les permitía conseguir las velocidades que querían, y por eso se ha retrasado el chip medio año.
Del mismo modo obtienes ventajas como un menor tamaño del chip a igual número de transistores (lo que conlleva mayor número de chips por oblea, que significa menor coste por chip), una menor disipación térmica y una mayor velocidad máxima del chip. Los ingenieros de ATI no querían hacer un chip "monstruoso" en cuanto al tamaño (el R520->X1800 es un chip un poco más pequeño que el R420->X800 a pesar de tener el doble de transistores, 160 millones en el R420 por 320 millones en el R520) y por eso necesitaban hacerlo en 90nm, pero tampoco querían hacer un chip que no se pudiera mejorar por otro chip de 90nm fabricado por ellos, ya que les obligaría a depender únicamente de la velocidad para aumentar rendimiento hasta los 80nm, que se supone que estarán disponibles dentro de aproximadamente un año. Por eso han guardado margen de mejora gracias a la modularidad del chip (no es una arquitectura tradicional de un bloque de alu's para shaders por cada unidad de texturas por cada unidad de cálculo del búfer Z por cada unidad de representación en pantalla… sino que permite combinarlas a voluntad gracias al diseño del controlador de memoria y del controlador de recursos (y así, teniendo en cuenta cómo esperas que evolucionen los motores gráficos, potencias una parte del chip en detrimento de la otra) Si necesitan mayor potencia de cálculo, le meten en vez de un bloque de ALUs por pipeline tres (en esto se supone que va a consistir la mejora del R580, que seguiría teniendo 16 pipelines pero el triple de potentes en potencia de cálculo) lo que ayudaría muchísimo en los juegos limitados por el cálculo de shaders, que se estima es la tendencia en un futuro.
La cuestión es que todo este diseño se realiza dos-tres años antes de salir el chip a la calle, y los ingenieros tienen que realizar un trabajo muy complicado ya que diseñan teniendo en cuenta parámetros que no se tienen por qué cumplir, como la disponibilidad de un proceso de fabricación o de un tipo de memoria concreto.
Hay gente que pregunta como es posible que ATI solo haya introducido 16 pipelines en un chip de 320 millones de transistores, mientras que nVidia ha podido introducir 24 pipelines en un chip de 300 millones. La cuestión es que para conseguir determinadas prestaciones que supones que te van a dar una ventaja a medio plazo (en el caso de ATI una implementación del branching dinámico muy eficiente, o un controlador de memoria que esconde las latencias para conseguir aprovechar la tasa de transferencia máxima de los chips disponibles) han tenido que gastar una burrada de transistores en un controlador de memoria con unas características concretas, en un controlador de recursos que puede manejar hasta 512 hilos a la vez, en muchos registros para almacenar variables temporales... que le impide gastar transistores en más pipelines, pero le permite tener las suyas siempre trabajando con muchos menos parones en la ejecución porque están esperando una textura, o porque no disponen de registros temporales libres. Son decisiones de diseño que pueden salir bien o pueden salir mal, y esto solo se puede ver a medio plazo, pero personalmente creo que ha sido un gasto bien invertido, teniendo en cuenta que el branching dinámico es una característica que va a estar muy presente en los motores para juegos que vienen, como es el unreal engine 3 (que lo utilizará entre otras cosas para calcular las sombras) o la evolución del source.
PD: Si queréis ver de qué es capaz esta tarjeta, bajaros la Toyshop demo. Es un vídeo de 91 megas comprimido en zip, pero sinceramente, es lo mejor que he visto en mucho tiempo, y pensar que está renderizado en tiempo real por una tarjeta que está a la venta, con libertad de cámara… Yo he sentido la sensación del invierno cuando estás dentro de casa, cerca de la chimenea y miras por la ventana para ver como llueve. Me hace plantearme qué vamos a ver en los juegos de dentro de dos o tres años.
-
Yo pensaba que la x1800xt tiraria algo mas de lo que tira, la 7800gtx es igual a esta o mejor que la ati, segun el juego varia pero creo que no tiene tanto rendimiento como cabia de esperar con 512 mb ddr3.
512 mb de memoria (ya sea en la placa o compartida) implica que tendras mejores texturas, no mejoras de proceso.
Radeon x1800xt tecnologia 0,09 micras, 625mhz de core, 512 de gddr3 a 750mhz, con tan solo 16 pipelines me dice dos
cosas: 1- Arquitectura muy ajustada al maximo 2-El dicho de que las tarjetas ati casi no se calientan va a terminar con
este modelo, fuente de alimentacion de 500w casi seguro y de 75 a 85 grados detemperatura estimo que va a atener el tarjeton este. Que alguien me corrija si me equivocoel hecho de que sea un chip mas rapido implica que se calentará mas que el anterior… y se seguirán calentando más, pero la relacion de temperaturas entre nvidia y ati se podrá mantener, subir o bajar.. es harina de otro costal.
-
@'[Gerar:
']512 mb de memoria (ya sea en la placa o compartida) implica que tendras mejores texturas, no mejoras de proceso.
A no ser que completes esos 256 megas por una mala configuración, y obligues a la tarjeta a utilizar memoria de la RAM del sistema, con lo que obligas a transferir a través del PCI y creas un cuello de botella.
-
Muchas gracias por la explicacion. Que pasada lo del diseño de las graficas.
Entonces si a ATI le ha salido un buen diseño ahora se puede decir que tiene al menos 2 generaciones mas con un exelente diseño, y puede que no necesiten rediseñar muchas mas cosas para las que vengan mas adelante a menos que cambie la tecnologia de los juegos.
Pero lo que me mosquea es como adecuar las diferentes versiones de las Dx a las graficas. Se supone solo tocan las partes que son necesarias para esas intrucciones nuevas y mantienen lo demas sin tocarlo, o es necesario cambiarlo todo? menos lo de las memorias supongo. -
Depende de cuales sean las imposiciones del nuevo DirectX. Por poner un ejemplo, el R600 será el chip que saque ATI cuando salga DX10 (o DirectX Next, o Windows Graphics Foundation 2.0, tiene varios nombres) Total, en el DX10 te imponen que la arquitectura sea unificada, en el sentido de que el juego de instrucciones de las unidades de píxeles sea el mismo que el de las unidades de vértices. ATI, en ese R600, en vez de tener unidades dedicadas para un tipo u otro, serán las mismas, así puedes utilizar todas las unidades para píxeles o para vértices en función de las necesidades del momento. (ojo los que utilicen 3DMax, Maya o programas de CAD. Esta va a ser su tarjeta porque va a tener una capacidad geométrica bestial. Se pasará de 6 u 8 unidades de vértices, que es lo que tienen las tarjetas de gama alta actuales, a aproximadamente 48, por lo que se multiplicará el rendimiento en estas aplicaciones por una cantidad muy elevada)
El controlador de memoria y el controlador de recursos (una especie de procesador que controla que hilos se ejecutan en cada unidad de píxeles y de vértices, que registros temporales se utilizan en cada hilo, que almacena la caché) se van a mantener, ya que están diseñados con el fin de quedarse un par de generaciones, pero el problema es que consume muchísimos transistores. Debido a ésto, a que esas partes del chip requieren tantos recursos ya que se han sobredimensionado para esta generación pero no para las siguientes, y que no se quede corto, han tenido que limitar en otras (p.ej el hecho de tener 16 unidades de píxeles en vez de 48, que son las que va a tener el R580, el refresco de esta gama alta que sale en primavera) lo que le hubiera dado una ventaja en esta ronda, pero obligaría a rediseñar en la siguiente.
Las unidades de píxeles son tremendamente similares a las de las 9700, cambian muy poco. La principal diferencia es que en vez de tener 24 bits de precisión, tienen 32, pero siguen siendo un multiplicador y un sumador en la primera ALU, y un sumador en la segunda. El hecho de que las sobredimensionaran cuando diseñaron el R300 ha permitido mantenerlo dos generaciones después, e incluso las ALUs de Xenos, el chip de las XBox360, son estas mismas extendidas a 32 bits, siendo en total 48 que se dedican a píxeles y vértices, en vez de 16 para píxeles (y 8 dedicadas a vértices) como tiene el R520.
Si quieres documentación más detallada, te puedo pasar documentos de la propia ATI de esta nueva gama.
-
Pues eso eske primero me iba a conprar la gf 7800gtx pero como salia dentro de nada la de ati me pillare lax1800xt de 512 megas y tenia unas dudillas ?
1-La grafica esta no se me qedara corta en nada ???
2-Xupara muxa luz eske mi madre me a dixo qe como xupe muxo le tendre qe dar dinero para la luz
3-Ke fuente me tendria qe poner y de qe marca ya qe me iba a poner una tagan de 4800w
4-En algunos test e visto qe la gf7800gtx superaba a la ati x1800xt de 512 megas pero eso debe de ser por los dribers qe aun no deben de estar muy finos para esta graficaPues gracias y asta otra a soy nuebo en el foro
-
Kynes, ande se pilla eso? y lo que mas me preocupa… lo entendere?
je, y yo que pensaba que mi 9700 se habia quedado corta xD. Es que a mi me sonaba tan raro que tuviesen que cambiar en cada generacion todo que no me cuadraba, algo se deberia poder seguir usando actualizando solo ciertas partes, como la presicion a 32bits.
Lo que si mola es la R600. Si es tal cual tu lo has dicho, las Dx10 van a suponer una revolucion en el tema de hard pero bestial. Pero entonces ¿las graficas profesionales que haran para seguir siendo eso, profesionales? meteran las PS y VS en el chip? con lo que las mutaciones a versiones superiores sera imposible no? como las quadro y fire. que pena.y kynes, esperate a ver la ultima de miyazaki. O tb beyond the clouds. y si quieres mas ya sabes
-
Son documentos que vienen en el SDK de ATI, entre ellos la guía para programar. Te da una visión por encima de las características de los chips de la gama, así que si los quieres te los puedo enviar por correo o decirte dónde puedes bajarte el SDK.
Sobre lo del R600, en el fondo el R600 lo podríamos tener ya aquí, solo hay que tener en cuenta que las PS del R520 podrían actuar perfectamente como unidades generales para PS y VS (es más, existe una polémica sobre si la gama R5xx cumple con todo el estándar SM3 o no, ya que no incluye una opción en los VS llamada vertex texture fetch, pero si que la incluye en los PS. Para acceder a esta opción se necesita una pequeña modificación en el código, pero los pro-nVidia más fanáticos se han agarrado a ella como a un clavo ardiendo para decir que la gama no es compatible con SM3, cuando encima no es ni obligatoria su presencia) pero como DX10 no está en la calle todavía, en ATI no se querían arriesgar presentando una tarjeta a la que no se le pudiera sacar partido, y que tuviera un rendimiento flojo en juegos actuales.
Las gráficas profesionales van a seguir teniendo ventajas, al permitir opciones que no permiten en las de serie. Del mismo modo que las profesionales de hoy en día solo cambian en una cantidad ínfima de cosas (sobre todo es una diferencia a nivel software) las profesionales futuras van a seguir teniendo un software propio. La cuestión es que van a poder utilizar todas las ALUs del chip para calcular vértices, y no únicamente las de los VS como hasta ahora.
OT: De las de Miyazaki me he visto todas las "clásicas" , desde Nausicaä hasta el Viaje de Chihiro, la verdad es que ese tio es un genio. Incluso la de Nicky me gustó, a pesar de ser demasiado para niños ¿Con Beyond the clouds te refieres a ésta? Si sabes de algún fansub que la haya sacado, dímelo que tengo un montón de ganas de verla :sisi:
OT2: Ah, la de beyond the clouds ya la tengo, pero con el nombre japo. Lo que pasa es que la tengo en la cola para verla, antes tengo que acabar con otras cosas.