Fotos y benchs de la gforce 6800
-
Y lo peor de todo es que tampoco parece un salto de calidad como era la 9700 sobre la 8500…:nono: Parece que nVidia solo va a dominar en los juegos basados en el motor del quake3, que cada vez son menos por estar relativamente desfasado respecto al motor unreal... Habrá que ver más comparativas, y cómo se comporta la r420...
Primera review "oficial" http://www.hardwareanalysis.com/content/article/1708.1/ Parece ser que tiene mucha fuerza bruta, pero no veo benchs con AA o AF. De que sirve jugar a 150 fps como en los benchs del ut2004??? A esperar a una review con AA o AF…
-
ale, el analisis de tomshardware: http://www.tomshardware.com/graphic/20040414/index.html
Salu2.
-
Viendo otras reviews, es un pepino bastante respetable. Han mejorado mucho la calidad de su AA, bastante peor que la de ATI en anteriores tarjetas. Parece que nVidia se ha puesto las pilas… http://www.anandtech.com/news/shownews.html?i=21965 para una lista de reviews.
-
Joder lo que tiene que jalar este tarjeton, la fuente que necesita de cuanto va a tener que ser de 1 Megawatio, jejeje.
Aqui se supone que hay otra comparativa, aunque parece que la pagina ahora mismo no funciona
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/
-
No hace más de dos meses escribí que ATI y Nvidia no hacían más que vender humo y mejoras de un 5 o un 10% desde hace más de un año, que el mercado estaba parado, que mi ATI 9700 seguía siendo de gama alta, que tal, que pascual… pues por fin, chicos. Por fin, con esta nueva generación de tarjetas, se están sacando pepinos de consideración que esta vez, sí que mejoran brutalmente el rendimiento de una 9700/9800 (si no hablamos de la 9800XT).
Ya era hora... a ver qué tal la que saque ATI. -
en el halo saca el doble de frames que la 9800xt
-
pfff usea que finalmente si va a ser con doble alimentacion….. ala... preparad la central nuclear porque al parecer lo minimo recomendado para estas graficas son 420 W de fuente j0as..... casi nada...
480W :rolleyes:
en el halo saca el doble de frames que la 9800xt
Luego hay que mirar la calidad de imagen
:rolleyes:
http://www.tomshardware.com/graphic/20040414/images/farcry-scene2.png
http://www.tomshardware.com/graphic/20040414/images/farcry-scene1.pngPD: Ese bicho con un prescott 3.2 te deja sube la factura de la luz un 50%
-
Yo sigo pensando que aun la siguen cagando, hasta que no llegue el momento de que uno pueda como minimo ponerse la memoria que uno quiera y cambiar el GPU también, como si fuera la placa base y el CPU, asi se funciona en sistemas profesionales, no lo que nos meten que cuando se desfasa, desfasada sera para toda su vida.
-
Publicado originalmente por Cracking
Yo sigo pensando que aun la siguen cagando, hasta que no llegue el momento de que uno pueda como minimo ponerse la memoria que uno quiera y cambiar el GPU también, como si fuera la placa base y el CPU, asi se funciona en sistemas profesionales, no lo que nos meten que cuando se desfasa, desfasada sera para toda su vida.Si pero el precio… uffff se te sube a la pechera
En el halo el doble?? y en el far cry un 30 % en total nada mas.... entre eso y la calidad de los shaders (punto flojo de nvidia desde siempre) ya dejan entrever que no es tanto como en un principio se iba a pensar.... pero bueno, ultimamente todo evoluciona asi (caso presscot por ej.) aunque habra que esperar a nuevas revisiones y a ver lo que hace ATI....PD: en el tema del Presscot quizas pase como con los TB y se pongan a "volar" en la siguiente revision
-
Me da a mi que hasta que no veamos el rendimiento de la x800xt, no tendremos perspectiva suficiente para valorar en su justa medida esta tarjeta. Ahora parece muy buena, pero puede pasar a ser una maravilla o una bazofia en función de lo que haga la de ATI. Vaya mesecito nos espera…
-
yo kiero ver los test kon el HL2/Doom3, mucho targeton si pero keda ver el rendimiento en juegos nuevos y ke los drivers de Nvidia para esta nueva no esten….. weno ya me entendeis ejejej
Por mi parte si muy buen rendimiento y tal pero sigue siendo una cagada de targeta.
Y de ruido ke tal?? porke la version de anantech (la imagen) lleva un peazo disipador
Poca gente suele tener una fuenta de 400w o mas en su caja y te piden 480W??? ya puede ser baratisima la targeta como para forzarme a nueva fuente y ademas perder 2 conectores solo para ella.
-
a ver lo q nos depara Ati, espero que siga con su racha y nos sorprenda
saludos
-
En cuanto a rendimiento no esta mal, pero habria que esperar a que saquen los d ATI su rival tecnologicamente hablando.
Lo que me tira para atras es el tema de tener que tener una fuente de 480w y ademas tener que dedicar exclusivamente dos cables de la misma para alimentar cada conector molex de la VGA, una pasada vamos:muerto:
Por cierto, en la mayoria de los benchs teniendo en cuenta la resolucion a la que se hacen, el factor limitante para esta tarjeta es el micro, todavia no existe el micro que la haga trabajar a tope, ya que muchas pruebas que he visto apenas se alteraban los fps al aumentar la resolucion.
Un saludo
-
De todas formas, nVidia no para de deleitarnos con los electrodomésticos… primero, un aspirador (GF FX 5800), y ahora un calefactor (GF FX 6800).
Lo digo, porque ya les vale pedirle al usuario una fuente de 480W y dos tomas de alimentación... a partir de ahora, ya no necesitaremos calefacción en nuestra habitación. -
En otra rama "Marcalj" comenta que pronto las torres serán BTX en vez de ATX
supongo que las fuentes de estos nuevos equipos ya serán como mínimo de 480w, y esto es algo que tiene previsto ya nvidia. No se que voltajes usará el nuevo PCI express que remplazará al AGP pero talvez sea menor y las nuevas versiones de gf6800 pci express no se calienten ni chupen tanto.
Talvez algun dia la refrigeración líquida remplace en los futuros ordenadores a los ventilatas.:rolleyes:
Por otro lado recuerdo que las primeras versiones de fx5800 también necesitaban un molex de la fuente, pero luego salieron algunas que no.
Que hable el tiempo…. (y que salga ya la r420 joer!!! )Saludos!!!
-
Por lo visto ATI no esta preocupada por el lanzamiento del GeForce 6800, y asegura que puede mejorar su rendimiento, esperemos que no necesite dos molex
Por lo visto el R420 pasa a llamarse oficialmente R500.
Aqui teneis un enlace con los rumores sobre el R420 (o R500 de ahora en adelante):