HD4000 de ATI
-
Segun tengo entendido saldran para julio (eso dicen), espero que sea broma lo de las memorias gddr5, basicamente porque solo tenemos una targeta en el mercado actualmente que usa gddr4 (3870) y me parece una tonteria sacar otra memoria mas potente cuando todos sabemos que los problemas de ATI vienen del software.
Mucho partido no le han sacado los de ATI a sus 3870 puesto que sobre papel tenian que haber ganado de calle a las 8800 de nividia (gddr4 vs gddr3, 800 mhz vs 650mhz), sin embargo en la practica siguen 10 o 15 fps por delante (en lo que a juegos se refire, por que en lo de edicion y reproduccion de video en alta calidad ATI les ha dado un buen repaso a NVIDIA desde la serie 2xxx).
En lo que a operaciones por coma flotante en un segundo (FLOPS) a 2 tera flops llega la 4870 x2 (este es el maximo teorico que se podria alcanzar con estos 2 cores, despues el desempeño real es una fraccion de este), si, en lo de hacer hardware basto a los de ATI no hay kien le kite el trono, ademas si esos consumos son reales 150 y 250w la 4870 y la 4870 x2 respectivamente habran hecho un buen trabajo ya que consumen bastante menos y casi cuadriplican el desempeño de muchas targetas actuales.
Esperemos que el software este a la altura por fin del hardware, suerte a los de ATI.–--------------------------------------------------------------------------
Asus Maximus formula|| CPU, qx6700@3200mhz||RL por componentes (bomba DD D5, bloque DD TDX, liquido, anticongelente 20%, antialgas 10%, anticorrosion 5%, agua destilada 65%, radiador Blackice doble x-flow, ventis rl noctua NF-P12||caja, cooler master cmstaker 830, 2 ventis antec (12cm) sacando+ 1Ventilador 12 cm - Delta FFB 1212 EHE 4000 rpm y 190 cfm metiendo aire||grafica: 3870 + gv1000 (zalman)@975-1250mhz||fuente c.master 550w||320 raid 7200|| -
@DaNTe*:
Esperemos que el software este a la altura por fin del hardware, suerte a los de ATI.
Lo mismo digo, y espero.
-
@DaNTe*:
Segun tengo entendido saldran para julio (eso dicen), espero que sea broma lo de las memorias gddr5, basicamente porque solo tenemos una targeta en el mercado actualmente que usa gddr4 (3870) y me parece una tonteria sacar otra memoria mas potente cuando todos sabemos que los problemas de ATI vienen del software.
Mucho partido no le han sacado los de ATI a sus 3870 puesto que sobre papel tenian que haber ganado de calle a las 8800 de nividia (gddr4 vs gddr3, 800 mhz vs 650mhz), sin embargo en la practica siguen 10 o 15 fps por delante (en lo que a juegos se refire, por que en lo de edicion y reproduccion de video en alta calidad ATI les ha dado un buen repaso a NVIDIA desde la serie 2xxx).
En lo que a operaciones por coma flotante en un segundo (FLOPS) a 2 tera flops llega la 4870 x2 (este es el maximo teorico que se podria alcanzar con estos 2 cores, despues el desempeño real es una fraccion de este), si, en lo de hacer hardware basto a los de ATI no hay kien le kite el trono, ademas si esos consumos son reales 150 y 250w la 4870 y la 4870 x2 respectivamente habran hecho un buen trabajo ya que consumen bastante menos y casi cuadriplican el desempeño de muchas targetas actuales.
Esperemos que el software este a la altura por fin del hardware, suerte a los de ATI.Hay que tener en cuenta el factor marketing, pues si no recuerdo mal las tarjetas de ati tenian muchas mas unidades de calculo que nvidia, pero eran mucho mas especificas y menos potentes, con lo que a la practica venian a ser lo mismo (de hecho eso fue el gran varapalo de la serie hd2x00). Asi que "el papel" sobre el que escribian los datos estaba un poco "trucado"
De todas formas todos estos numeros son muy interesantes, a ver cuantos se acaban cumpliendo porque tiene buena pinta (sobretodo esa 4870).
P.D.: esos numeros en idle se los cree alguien -
esos numeros en idle se los cree alguien
A lo mejor han resgistrado la palabra idle y ahora significa "ordenador apagado"
-
Hombre, a mi también me parece muy buenos esos consumos, para idle. Pero de todos modos, si bajan el proceso de fabricación y reducen las frecuencias en 2D, lo mismo se podría acercar.
Mi 7900GT si que se que consume poco en idle (no se si unos 33w, o a si…no recuerdo donde leí una grafica comparativa), pero lo mismo nos sorprenden en esta nueva serie, no?Lo que también interesa es el precio, pues si hacen la conversión $=€, la HD 4870 puede salir por un precio muy "rico".
Saludos!!
-
Hombre estamos hablando exclusivamente del consumo de la grafica y lo que es la HD3850 se hacerca a esos 10W con un consumo en IDLE de poco más de 13W
Vamos, que si en IDLE consiguen no solo bajar los Mhz sino desactivar ciertas zonas de la GPU esos 10W son factibles aunque hablemos de graficas de gama alta.
Pues a fin de cuentas no hay motivo para hacer que el componente consuma más energía. Lo unico es que hay que optimizar el diseño para hacerlo eficiente, cosa que se nota generación tras generación.
-
Vaya, la 9600GT tiene un consumo muy bueno, al lado de la HD3870/50, teniendo un rendimiento similar, eh?
Hay que reconocer que, esta gráfica, es muy interesante. Incluso, si me permitís, creo que va a ser la mas interesante precio/prestaciones/consumo, de la serie 9. Lo mismo la 9600GS es otra joya…Saludos!!
-
Neptunno es la GTX la que consume cerca de 33W la GT es más modesta entre otras cosas por la RAM
-
Neptunno es la GTX la que consume cerca de 33W la GT es más modesta entre otras cosas por la RAM
Jajaja, gracias por la aclaración La verdad es que da gusto lo poco que gasta en Idle. Eso si, en Full, ya vemos que gasta mas que la 9600GT :risitas:
Estan genial esas graficas que reflejan los consumos. No todo es tener mas FPS (a veces una gráfica tiene 5 Fps mas que otra, pero a costa de 20-30W mas, por ejemplo)
-
Yo a lo del consumo tampoco le doy tanta importancia, que son 20-40W más o menos… ¿Una bombilla de más o menos en la lámpara...?
Lo que me molaria es que arrasaran en rendimiento y a precios bajos...
Saludos
-
Hombre estamos hablando exclusivamente del consumo de la grafica y lo que es la HD3850 se hacerca a esos 10W con un consumo en IDLE de poco más de 13W
Vamos, que si en IDLE consiguen no solo bajar los Mhz sino desactivar ciertas zonas de la GPU esos 10W son factibles aunque hablemos de graficas de gama alta.
Pues a fin de cuentas no hay motivo para hacer que el componente consuma más energía. Lo unico es que hay que optimizar el diseño para hacerlo eficiente, cosa que se nota generación tras generación.
Vaya! Creo que he vivido un par de años engañado respecto a consumos de graficas xDDD
Pues entonces, que bestialidad de consumo bajo carga, no?? 150w!! xDDDD
En fin a mi me parece genial lo del consumo, porque implica una fuente mas normalita, menos calor (y por tanto menos ruido), con lo que para un htpc las de gama baja pueden ser geniales. Aunque viendo la 3850 la verdad es que tampoco tiene mucho que envidiar, tal vez el rendimiento… -
Hombre las G80 eran una rep*sima mie en en tema de consumos porque nvidia no cuido el diseño y encima usaron 90nm. :vayatela:
Y claro ni punto de comparación:
Eso si, las HD2900 si que eran escandalosas para lo que rendian:
Menos mal que pasaron el R600 a 55nm y sacaron las HD38XX que sino pa matarlos.
-
Volviendo al tema de rendimiento de la futura HD4000. La verdad, espero que realmente se note la diferencia del RV670 al RV770, por que visto lo visto con las 9800GTX, y su rendimiento "ligeramente superior" a la 8800GTS (y eso ya lo sabíamos todos, o al menos lo intuíamos), pues solo nos queda seguir esperando.
Parece mentira que, la 8800GTS/Ultra rinda igual, o un pelin más, que la 9800GTX. Parece una broma, y mas diciendo los de Nvidia que la GT200 (es decir, la 9900GTX/GT) saldrá a finales de verano.
Con lo que, las 8800GTX habrán tenido un rendimiento magnifico, sin casi bajar del trono, en dos años… increíble, la gente que compro esa gráfica...ole y ole, han amortizado la pasta pero bien, eh?En fin, y mientras a esperar que toca...:)
Pues yo, desde luego, pasaría de pillar una serie 9, salvo que tuviera q invertir en una grafica urgentemente. Por que esta generación es un parche de la serie 8...y a si hasta la GT200.
Pasara igual con las HD4000?? Espero que no, por que estamos cansados de gráficas pasajeras, y que aportan muy poca diferencia con la generación, o modelo anterior.