Fotos de una HD2900XT OEM (30 cm)
-
Se les ha ido la pinza, primero es la hostia en vinagre y ahora el pedazo de mierda más grande que te puedes echar a la cara.
Me parece que hasta que no haya análisis oficiales no nos podemos fiar de nada.
Y es que esto muy serio no es, pues es extraño que la XT incluso supera a la XTX, haber eso como se come.
PD: Yo espero que no, pero como sea cierto, mal asunto para AMD porque se les esta hiendo el carro por el pedregal.
-
Como los k10 no rindan como lo esperado AMD no creo que levante cabeza en mucho tiempo. Saludos.
-
Se les ha ido la pinza, primero es la hostia en vinagre y ahora el pedazo de mierda más grande que te puedes echar a la cara.
Me parece que hasta que no haya análisis oficiales no nos podemos fiar de nada.
Y es que esto muy serio no es, pues es extraño que la XT incluso supera a la XTX, haber eso como se come.
PD: Yo espero que no, pero como sea cierto, mal asunto para AMD porque se les esta hiendo el carro por el pedregal.
Pues si, mucho humo veo yo en el tema, no se….pero vamos o dicen que es una mierda, o dicen que se come a las GTX con patatas, joder....
No tiene un punto medio?
Y en lo de precios igual, o bien la XT vale 499$ o bien 380€...ainssDe momento a mi 7900GT le queda mucho por trabajar....xD
-
quiero pensar en que sea por culpa de falta de mejores drivers,tampoco tenemos que olvidar que estas graficas pueden tener un comportamiento diferente en dx10, por lo que podria ser que en dx9 esten a la par y en dx10 no.
de todos modos esperemos reviews a su salida y una salida de nuevos drivers o testear el rendimiento con dx10
-
Pero para poderla testear en DX10 cuánto queda… 5 meses ? Para entonces fijo que ya han presentado nuevos modelos...
-
Joer, menuda decepción, no tiene lógica esto, serán los drivers, será la placa base (que tiene un 680i :rolleyes: )o será el fin de AMD y ATI? Pero bueno, yo creo que eso es bastante falsete y faltan los drivers buenos aun. Ya veremos que tal rinde de verdad cuando Krampak la tenga en sus manos :risitas: :risitas:
Como consolación, ATI tiene el R700 bastante adelantado por lo que ley hace tiempo, con su arquitectura de chips modulares (bastante curiosa).
Un Saludo
-
yo no me fio, pero de ser cierto menuda decepción-desilusión, haber si salen al mercado de una vez
salu2
-
Y yo con mi 8800 GTS la mar de contento! ;D
-
Parece que hay más cosas.
ATI Radeon HD 2900XT
ATI Radeon HD 2600XT
ATI Radeon HD 2600Pro
ATI Radeon HD 2400Aqui cuentan que la Radeon HD 2600XT tiene un rendimiento entre el 25% y 140% superior al de una X1950XTX, y parece que se han desmientido los test vistos anteriormente de las HD 2900.
Rendimiento en 3DMark de una ATI Radeon HD 2900XT sobre un Athlon 64 X2 3800+, realmente impresionante (y bajo Windows Vista)Un Saludo
-
Pues esos 11000 puntos en el 3D06 pintan muuy bien, y por ese precio tan muy bien.
-
El 3dmark06 bajo windows vista, con 1gb de ram y un X2 3800 O_o Si ese resultado está bien ya lo veo más normal, porque así nvidia sacará sus 8900 y se igualarán ( creo yo ) :sisi:
Salu2
P.D.: porque en verano no gasto el pc que sino caería mi primera ATI ( amd-ati ), aunque la que me gusta para mi pc es la 2600XT
-
pues pinta bien veremos cuando llegue las primeras review de los sitios de confianza jejeje
como dato parace ser que la hd2900xt le han quitdo el puesto de tarjeton (referiendonos al tamaño), recordar que la ultra es igual de grande que la gtx
edito: añado foto de hd2400 pasiva
-
Por dios… pero q coj*** es esoooooo!!! xDDDD.
-
Esa ati sera de grande como una gts mas o menos, pero han confirmado el consumo?
-
Esa 2400 pasiva es la caña
-
Una pregunta, la hd2900XT tiene un conector de 6 pines de alimentación, pero el segundo tiene 8 cómo puede ser esto? no lo entiendo.
-
si ahora ya hay fuentes que integran la salida de 6 y 8 pines para alimentar graficas (no confundir con los 4+4 para las nuevas placas base), el motivo creo que sea un nuevo estandard en la alimentacion para graficas, aunque por supuesto traeran un adaptador para fuentes mas viejas ( la mayoria de las actuales)
-
Durará poco , por que cuando aparezca el PCX II se suministrará más energia, y en las tarjetas que lo necesiten pues supongo que seguirán con el conector de 6 pines.
Un Saludo
-
si con la salida del pci-e 2 se solventaria en parte, lo malo es que la industria lo va a imponer como estandard segun tengo entendido y solo hay que ver que la mayoria de marcas ya tienen modelos o tienen intencion de implantar fuentes con este conector para alimentar graficas (ya hay fuentes con 3 conectores pcie 8 pines 6+2 vease la toughpower 1200W) aunque en si por configuracion no deja de ser un 6pines con dos adicionales
-
Qué es ese adaptador de DVI a USB en la 2400 ? Es la primera vez que veo algo parecido.