Datos definitivos de la gama X1 (ojo 56k)
-
No, claro. Por supuesto que las dos te van a satisfacer. Además, ya he dicho que me parece que la mejor en relación calidad-precio ahora mismo es la 7800GTX (más que nada porque la X1800XT todavía no se vende)
Lo de los MHz altos, bueno… cada arquitectura tiende por un camino. Puedes tender a la anchura (muchas operaciones por cada ciclo de reloj) o a muchos ciclos cada segundo. Lo ideal es ambas cosas, muchas operaciones cada ciclo y muchos ciclos cada segundo. Lo normal es que la siguente tarjeta de gama alta (R580) realice más operaciones cada ciclo, y pueda bajar la velocidad para ahorrar consumo, pero en este modelo se dispararía el número de transistores y no lo han considerado oportuno. Cuando diseñas una tarjeta, teniendo en cuenta el tamaño de los transistores y el tamaño final del chip que quieres, calculas el número de transistores de los que dispones. Para poder introducir ciertas mejoras necesarias para mejorar el rendimiento en algunos aspectos, han tenido que recortar el número de transistores en otros, y como el proceso (el tamaño de los transistores) y el diseño interno del chip lo permiten, han subido la velocidad de reloj hasta niveles elevados. No es la solución ideal, pero era o eso o recortar por otro lado. Es una cuestión de elecciones en el diseño de la tarjeta, que te impone ciertas cosas.
-
o la decodificación por hardware de H264, el codec que utilizarán tanto blu-ray como HD-DVD (que recordemos que las CPU actuales no pueden con él en tiempo real)
A pesar de ser totalmente Off-Topic: Esto no es del todo cierto. Actualmente si que las CPU actuales si pueden con el codec H264 a la hora de decodificar. No así con la codificación que sigue siendo muy costosa en procesamiento (pero los codecs MPEG-4 ASP a pleno rendimiento tampoco se pueden codificar a tiempo real a resoluciones medias).
-
Depende del procesador, de la resolución del video… a 420i vale, a 1080p dudo que ningún procesador actual pueda con él. Además se supone (la capacidad en el hardware está) que ayuda a la compresión también.
-
A ver kynes, tu dices que los tios primero meten todos los transistores que piensan que necesitaran para esa generacion, y segun eso despues piensan si es mejor mantener tantos a menos mhz o meter menos a mas mhz. O cambian de sitio los transistores para mas rendimiento en otro lugar y penalizan en ese. Que complicado es esto del diseño de gpus.
-
Más o menos es como dices. Primero hacen una estimación de lo que quieren obtener, en función de sus productos anteriores, de los que suponen que va a tener la competencia, y del coste por chip que consideran que va a ser rentable. En función de estos parámetros, deciden con qué tamaño de transistor les conviene fabricarlo. Normalmente cuando pasas a un tamaño menor, sueles tener algunos problemas de diseño, como le pasó a Intel con el prescott o le ha pasado a ATI con un problema de ruido en las patillas de tierra del controlador de memoria del chip. Este problema es el que no les permitía conseguir las velocidades que querían, y por eso se ha retrasado el chip medio año.
Del mismo modo obtienes ventajas como un menor tamaño del chip a igual número de transistores (lo que conlleva mayor número de chips por oblea, que significa menor coste por chip), una menor disipación térmica y una mayor velocidad máxima del chip. Los ingenieros de ATI no querían hacer un chip "monstruoso" en cuanto al tamaño (el R520->X1800 es un chip un poco más pequeño que el R420->X800 a pesar de tener el doble de transistores, 160 millones en el R420 por 320 millones en el R520) y por eso necesitaban hacerlo en 90nm, pero tampoco querían hacer un chip que no se pudiera mejorar por otro chip de 90nm fabricado por ellos, ya que les obligaría a depender únicamente de la velocidad para aumentar rendimiento hasta los 80nm, que se supone que estarán disponibles dentro de aproximadamente un año. Por eso han guardado margen de mejora gracias a la modularidad del chip (no es una arquitectura tradicional de un bloque de alu's para shaders por cada unidad de texturas por cada unidad de cálculo del búfer Z por cada unidad de representación en pantalla… sino que permite combinarlas a voluntad gracias al diseño del controlador de memoria y del controlador de recursos (y así, teniendo en cuenta cómo esperas que evolucionen los motores gráficos, potencias una parte del chip en detrimento de la otra) Si necesitan mayor potencia de cálculo, le meten en vez de un bloque de ALUs por pipeline tres (en esto se supone que va a consistir la mejora del R580, que seguiría teniendo 16 pipelines pero el triple de potentes en potencia de cálculo) lo que ayudaría muchísimo en los juegos limitados por el cálculo de shaders, que se estima es la tendencia en un futuro.
La cuestión es que todo este diseño se realiza dos-tres años antes de salir el chip a la calle, y los ingenieros tienen que realizar un trabajo muy complicado ya que diseñan teniendo en cuenta parámetros que no se tienen por qué cumplir, como la disponibilidad de un proceso de fabricación o de un tipo de memoria concreto.
Hay gente que pregunta como es posible que ATI solo haya introducido 16 pipelines en un chip de 320 millones de transistores, mientras que nVidia ha podido introducir 24 pipelines en un chip de 300 millones. La cuestión es que para conseguir determinadas prestaciones que supones que te van a dar una ventaja a medio plazo (en el caso de ATI una implementación del branching dinámico muy eficiente, o un controlador de memoria que esconde las latencias para conseguir aprovechar la tasa de transferencia máxima de los chips disponibles) han tenido que gastar una burrada de transistores en un controlador de memoria con unas características concretas, en un controlador de recursos que puede manejar hasta 512 hilos a la vez, en muchos registros para almacenar variables temporales... que le impide gastar transistores en más pipelines, pero le permite tener las suyas siempre trabajando con muchos menos parones en la ejecución porque están esperando una textura, o porque no disponen de registros temporales libres. Son decisiones de diseño que pueden salir bien o pueden salir mal, y esto solo se puede ver a medio plazo, pero personalmente creo que ha sido un gasto bien invertido, teniendo en cuenta que el branching dinámico es una característica que va a estar muy presente en los motores para juegos que vienen, como es el unreal engine 3 (que lo utilizará entre otras cosas para calcular las sombras) o la evolución del source.
PD: Si queréis ver de qué es capaz esta tarjeta, bajaros la Toyshop demo. Es un vídeo de 91 megas comprimido en zip, pero sinceramente, es lo mejor que he visto en mucho tiempo, y pensar que está renderizado en tiempo real por una tarjeta que está a la venta, con libertad de cámara… Yo he sentido la sensación del invierno cuando estás dentro de casa, cerca de la chimenea y miras por la ventana para ver como llueve. Me hace plantearme qué vamos a ver en los juegos de dentro de dos o tres años.
-
Yo pensaba que la x1800xt tiraria algo mas de lo que tira, la 7800gtx es igual a esta o mejor que la ati, segun el juego varia pero creo que no tiene tanto rendimiento como cabia de esperar con 512 mb ddr3.
512 mb de memoria (ya sea en la placa o compartida) implica que tendras mejores texturas, no mejoras de proceso.
Radeon x1800xt tecnologia 0,09 micras, 625mhz de core, 512 de gddr3 a 750mhz, con tan solo 16 pipelines me dice dos
cosas: 1- Arquitectura muy ajustada al maximo 2-El dicho de que las tarjetas ati casi no se calientan va a terminar con
este modelo, fuente de alimentacion de 500w casi seguro y de 75 a 85 grados detemperatura estimo que va a atener el tarjeton este. Que alguien me corrija si me equivocoel hecho de que sea un chip mas rapido implica que se calentará mas que el anterior… y se seguirán calentando más, pero la relacion de temperaturas entre nvidia y ati se podrá mantener, subir o bajar.. es harina de otro costal.
-
@'[Gerar:
']512 mb de memoria (ya sea en la placa o compartida) implica que tendras mejores texturas, no mejoras de proceso.
A no ser que completes esos 256 megas por una mala configuración, y obligues a la tarjeta a utilizar memoria de la RAM del sistema, con lo que obligas a transferir a través del PCI y creas un cuello de botella.
-
Muchas gracias por la explicacion. Que pasada lo del diseño de las graficas.
Entonces si a ATI le ha salido un buen diseño ahora se puede decir que tiene al menos 2 generaciones mas con un exelente diseño, y puede que no necesiten rediseñar muchas mas cosas para las que vengan mas adelante a menos que cambie la tecnologia de los juegos.
Pero lo que me mosquea es como adecuar las diferentes versiones de las Dx a las graficas. Se supone solo tocan las partes que son necesarias para esas intrucciones nuevas y mantienen lo demas sin tocarlo, o es necesario cambiarlo todo? menos lo de las memorias supongo. -
Depende de cuales sean las imposiciones del nuevo DirectX. Por poner un ejemplo, el R600 será el chip que saque ATI cuando salga DX10 (o DirectX Next, o Windows Graphics Foundation 2.0, tiene varios nombres) Total, en el DX10 te imponen que la arquitectura sea unificada, en el sentido de que el juego de instrucciones de las unidades de píxeles sea el mismo que el de las unidades de vértices. ATI, en ese R600, en vez de tener unidades dedicadas para un tipo u otro, serán las mismas, así puedes utilizar todas las unidades para píxeles o para vértices en función de las necesidades del momento. (ojo los que utilicen 3DMax, Maya o programas de CAD. Esta va a ser su tarjeta porque va a tener una capacidad geométrica bestial. Se pasará de 6 u 8 unidades de vértices, que es lo que tienen las tarjetas de gama alta actuales, a aproximadamente 48, por lo que se multiplicará el rendimiento en estas aplicaciones por una cantidad muy elevada)
El controlador de memoria y el controlador de recursos (una especie de procesador que controla que hilos se ejecutan en cada unidad de píxeles y de vértices, que registros temporales se utilizan en cada hilo, que almacena la caché) se van a mantener, ya que están diseñados con el fin de quedarse un par de generaciones, pero el problema es que consume muchísimos transistores. Debido a ésto, a que esas partes del chip requieren tantos recursos ya que se han sobredimensionado para esta generación pero no para las siguientes, y que no se quede corto, han tenido que limitar en otras (p.ej el hecho de tener 16 unidades de píxeles en vez de 48, que son las que va a tener el R580, el refresco de esta gama alta que sale en primavera) lo que le hubiera dado una ventaja en esta ronda, pero obligaría a rediseñar en la siguiente.
Las unidades de píxeles son tremendamente similares a las de las 9700, cambian muy poco. La principal diferencia es que en vez de tener 24 bits de precisión, tienen 32, pero siguen siendo un multiplicador y un sumador en la primera ALU, y un sumador en la segunda. El hecho de que las sobredimensionaran cuando diseñaron el R300 ha permitido mantenerlo dos generaciones después, e incluso las ALUs de Xenos, el chip de las XBox360, son estas mismas extendidas a 32 bits, siendo en total 48 que se dedican a píxeles y vértices, en vez de 16 para píxeles (y 8 dedicadas a vértices) como tiene el R520.
Si quieres documentación más detallada, te puedo pasar documentos de la propia ATI de esta nueva gama.
-
Pues eso eske primero me iba a conprar la gf 7800gtx pero como salia dentro de nada la de ati me pillare lax1800xt de 512 megas y tenia unas dudillas ?
1-La grafica esta no se me qedara corta en nada ???
2-Xupara muxa luz eske mi madre me a dixo qe como xupe muxo le tendre qe dar dinero para la luz
3-Ke fuente me tendria qe poner y de qe marca ya qe me iba a poner una tagan de 4800w
4-En algunos test e visto qe la gf7800gtx superaba a la ati x1800xt de 512 megas pero eso debe de ser por los dribers qe aun no deben de estar muy finos para esta graficaPues gracias y asta otra a soy nuebo en el foro
-
Kynes, ande se pilla eso? y lo que mas me preocupa… lo entendere?
je, y yo que pensaba que mi 9700 se habia quedado corta xD. Es que a mi me sonaba tan raro que tuviesen que cambiar en cada generacion todo que no me cuadraba, algo se deberia poder seguir usando actualizando solo ciertas partes, como la presicion a 32bits.
Lo que si mola es la R600. Si es tal cual tu lo has dicho, las Dx10 van a suponer una revolucion en el tema de hard pero bestial. Pero entonces ¿las graficas profesionales que haran para seguir siendo eso, profesionales? meteran las PS y VS en el chip? con lo que las mutaciones a versiones superiores sera imposible no? como las quadro y fire. que pena.y kynes, esperate a ver la ultima de miyazaki. O tb beyond the clouds. y si quieres mas ya sabes
-
Son documentos que vienen en el SDK de ATI, entre ellos la guía para programar. Te da una visión por encima de las características de los chips de la gama, así que si los quieres te los puedo enviar por correo o decirte dónde puedes bajarte el SDK.
Sobre lo del R600, en el fondo el R600 lo podríamos tener ya aquí, solo hay que tener en cuenta que las PS del R520 podrían actuar perfectamente como unidades generales para PS y VS (es más, existe una polémica sobre si la gama R5xx cumple con todo el estándar SM3 o no, ya que no incluye una opción en los VS llamada vertex texture fetch, pero si que la incluye en los PS. Para acceder a esta opción se necesita una pequeña modificación en el código, pero los pro-nVidia más fanáticos se han agarrado a ella como a un clavo ardiendo para decir que la gama no es compatible con SM3, cuando encima no es ni obligatoria su presencia) pero como DX10 no está en la calle todavía, en ATI no se querían arriesgar presentando una tarjeta a la que no se le pudiera sacar partido, y que tuviera un rendimiento flojo en juegos actuales.
Las gráficas profesionales van a seguir teniendo ventajas, al permitir opciones que no permiten en las de serie. Del mismo modo que las profesionales de hoy en día solo cambian en una cantidad ínfima de cosas (sobre todo es una diferencia a nivel software) las profesionales futuras van a seguir teniendo un software propio. La cuestión es que van a poder utilizar todas las ALUs del chip para calcular vértices, y no únicamente las de los VS como hasta ahora.
OT: De las de Miyazaki me he visto todas las "clásicas" , desde Nausicaä hasta el Viaje de Chihiro, la verdad es que ese tio es un genio. Incluso la de Nicky me gustó, a pesar de ser demasiado para niños ¿Con Beyond the clouds te refieres a ésta? Si sabes de algún fansub que la haya sacado, dímelo que tengo un montón de ganas de verla :sisi:
OT2: Ah, la de beyond the clouds ya la tengo, pero con el nombre japo. Lo que pasa es que la tengo en la cola para verla, antes tengo que acabar con otras cosas.
-
joder Kynes tio, eres el puto amo yo d mayor qiero ser como tu y saber tanto como tu!! :sisi:
no en serio tio deberian darte un premio aqi en Hardlimit xq los post q pones son super completos aunqe yo no me entere d la mitad d las cosas :risitas: pero bueno para gente q sepa muxo mas les viene muy bien!! y al menos no vas d listo como algunos q no qiero nombrar o x decirte solamente alguno :rolleyes: jejejeje bueno pues nada tio q solo qeria decirte eso y q conste q no es para hacer la pelota x si lo piensa alguno :vayatela:
Saludos!! ;D
-
Si, dime de donde bajar el SDK ese pa ver como cambian los chips.
OT: si quieres saber de donde bajar la ultima de miyazaki tira a asia-team.net. Es un sitio donde subean pelis, la mayoria coreanas, chinas y japonesas. Ya veras.
-
http://www.ati.com/developer/radeonSDK.html son 340 megas, y a parte de explicar la arquitectura de las X1, vienen demos de diferentes técnicas para aplicar efectos a los juegos, documentación sobre patentes… Si quieres únicamente el texto de la gama X1, mándame un privado con tu correo y te lo envio.
PD: ya encontré la de Howls Moving Castle.