Prueba y compara el rendimiento de tu PC con nuestro banco de pruebas.

Nvidia 9800GX2 (Primeros datos e imágenes)



  • GeForce 9800GX2 not re-design the new GPU, but the two 65-nm G92 combination with the recent revision of the GeForce 8800GTS 512MB happened, each group with 128 Stream Processors, similar to ATI Radeon HD 3870 X2 composition, In simple terms is the ATI Radeon HD-3870 card belonging X2 dual-core products, the GeForce 9800GX2 continuation GeForce 7950GX2 or 7900 GX2 design, PCB version of the two link together, sharing a PCI-Express 2.0 slots, as dual-card dual-core products, top each with a 512 MB GDD3 GPU memory (1 GB of memory capacity).

    At present the official GeForce 9800GX2 a powerful 3-D performance have confidence that at the same time substantially leading GeForce 8800Ultra effectiveness of the game can be as high as 30 to 50 per cent, but we believe that double GeForce 9800GX2 card is a dual-core products, not two base of comparison fair. If a rival ATI Radeon HD 3870 X2 confrontation seems to be two products has been set for the introduction to the outcome, because at this stage the effectiveness of RV670 is obviously lagging behind G92, so even if the dual-core comparison environment is unlikely to change.

    According to the relevant third party, GeForce 9800GX2 estimated price of 449 US dollars, time for the launch of their products on February 14, slightly late ATI Radeon HD 3870 X2 the January 28, NVIDIA such a move a leading opponent from the past at the same level product releases time, which still seems to be revealing official AMD as a follow-up action and then decide GeForce 9800GX2 formal listing date. Dual-core comparison environment is unlikely to change.

    NVIDIA GeForce 9800GX2 (Tom's Hardware CN)

    Pues eso, son 2 G92 unidos, por 449 dolares y entre un 30 y un 50 % mas rápida que una 8800 ultra.:D

    Añado otras noticias:

    GeForce 9800 GX2: especificaciones y fotos (www.noticias3d.com)

    GeForce 9800 GX2 Exclusive Pics & Specs (enthusiast.hardocp.com)

    Exclusive: Nvidia GeForce 9800GX2 (www.tomshardware.com)

    salu2



  • Casi na, eso debe chupar energía por un tubo, y un SLI de eso ya ni te cuento.



  • @cram:

    Casi na, eso debe chupar energía por un tubo, y un SLI de eso ya ni te cuento.

    On the physical obtained at the photos, NVIDIA GeForce 9800GX2 of PCI Express × 16-length cards, occupy Dual Slot space, display card is back and has been the top radiator coating, we can see that the work is quite high for heat, CoolerMaster radiator from the same foundry manufacturing, showed that only a group of top card SLI Goldfinger, and does not support 3 - Way SLI technology, but with the GeForce 7950GX2 or 7900 GX2 Quad SLI support the same structure, equipped with a dual-DVI video interfaces, as well as HDMI video and S / PDIF audio output holes, providing extreme HD (2560 × 1600 resolution) screen output card installed tail 6 - PIN and 8 - PIN power connector, the official minimum recommended system power demand of 580 W (+12 V power A request for 40).

    Si, una fuente de 600W y 40A, eso solo para una seguro…

    Salu2



  • La ostia que caxarros… 😐

    Si no fuera por el precio...:verguen:

    Saludos 😉


  • Veteranos HL

    Es que somos la leche….

    ...¿acaso pretendemos comprarnos el último modelo de Ferrari?, pues en todo lo demás (salvando la lógica diferencia de precios, claro está...) proporcionalmente debería ser igual.

    Está claro que quizá tras un esfuerzo, puedas tener la mejor tarjeta del mercado EN UN MOMENTO DETERMINADO, pero es prácticamente imposible para la mayoría de nosotros estar SIEMPRE a la última en el tema hardware.

    Yo ya me he resignado hace tiempo, así que de vez en cuando me doy un gustazo, pero no puedo pasar de ahí... :risitas:


  • MODERADOR

    @Alien8:

    Es que somos la leche….

    ...¿acaso pretendemos comprarnos el último modelo de Ferrari?, pues en todo lo demás (salvando la lógica diferencia de precios, claro está...) proporcionalmente debería ser igual.

    Está claro que quizá tras un esfuerzo, puedas tener la mejor tarjeta del mercado EN UN MOMENTO DETERMINADO, pero es prácticamente imposible para la mayoría de nosotros estar SIEMPRE a la última en el tema hardware.

    Yo ya me he resignado hace tiempo, así que de vez en cuando me doy un gustazo, pero no puedo pasar de ahí... :risitas:

    Amen, tío. Es que es tan difícil gastarse un pastón en una gráfica, cada dos por tres. Personalmente, me da remordimiento de conciencia, en serio. Luego, cada cual que haga lo que quiera, jeje.
    Una cosa es darse un gustazo, como dice Alien8, alguna vez y comprarse algo de 300-350€ y otra es gastar 500€ o más en un ultra pepino, que encima traga luz Watios que no veas, con lo que te toca cambiar de fuente y no por una especialmente barata.

    Además, luego ves reviews, y bueno, te desencantas. Primero, por que hay juegos optimizados tan "bien", que ni con ese ultra pepino lo mueves a tope. Segundo, que con una grafica un poco mas inferior (es decir 150€ - 250€) puedes jugar perfectamente, pues a veces solo ves 10-30fps de diferencia (hablando de, por ejemplo 70-100 fps)y, no es que lo notes. Al menos, la mayoría de los usuarios, pues los fan del rendimiento extremo no son lo que abunden.

    En fin… esperaremos a las 9800 xD que serán mas asequibles para los bolsillos, jeje.

    Saludos!!

    P.D: Alien8 tu tienes el "TFT LG 22'' L226WTQ" , no? Yo es que ayer me pille el L225WS. Ufff, que pasada ver las cosas tan "a lo grande" xD No quiero ni pensarlo como lo veras tu, que es mucho mejor que el mío 🙂
    Ah, y Feliz Año 😉



  • Las gráficas las hacen tan grandes por necesidad o sólo para impresionar? Es más grande que la placa base!! A este paso dentro de unos años un PC constará de 2 torres, 1 de éstas será sólo para la gráfica.


  • MODERADOR

    Yo sigo sin creeme que saquen nada más de la serie GF9 para Febrero que las anunciadas 9600GT, y el tema de una versión x2 seguramente si llegan a salir esten basadas en el G92 es decir serie 8 😞

    Pero todo el marketing que pueda perjudicar el lanzamiento en Enero de las nuevas ATi HD3870 x2 es trabajo bien hecho para nVIDIA, aunque luego no saquen nada hasta las 9800GT del Verano 2008 😐


  • Veteranos HL

    El sistema de doble PCB no me convence porque en el pasado ya ha demostrado como encarece el precio del producto, merma/limita la refrigeración e impide el cambio de disipador por algo más silencioso. Aunque claro, no obliga a fabricar tarjetas extralargas como seran las bestias de doble GPU de ATI que cabran en contadas cajas.

    Esto no quita que es una opción high-end interesante para aquellos que no tienen placas SLI y quieren gozar de un sistema multiGPU para poder aplicar filtros a alta resolución con los juegos más exigentes.

    Aunque la verdad, la nueva nomenclatura despista un poco y las pistas sobre el rendimiento lo acaban de rematar, por lo que habra que ver esta nueva Serie 9 que es exactamente ya que parecen un refrito de G92 😐

    Como bien dices Fassou esto es un poco raro y podria ser cosa de marketing (o antimarketing segun se vea) por el futuro lanzamiento de ATI.


  • Veteranos HL

    ¡Esta publicación está eliminada!

  • Veteranos HL

    @Espinetenbolas:

    El sistema de doble PCB no me convence porque en el pasado ya ha demostrado como encarece el precio del producto, merma/limita la refrigeración e impide el cambio de disipador por algo más silencioso.

    Coincido totalmente.
    Además creo que cuando empiezan a salir este tipo de montajes,es porque ya están cociendo otro micro y empiezan a preveer como dar salida al stock.
    Se habrán hinchado a fabricar GD92.(no es para menos después de ser un bombazo indiscutible)pero saben que no se pueden quedar ahí.

    El siguiente paso es bajarles el precio (440$ todavia no es barato) y seguido,cuando baje el stock,lanzar el modelo Nv10k.(llamese GF9 o similar)
    y dejar a este sistema y si pueden,al proximo lanzamiento de ATI,en pelotas y totalmente desfasado.
    Pero eso no será hasta que ATI mueva ficha (les toca mover).Nvidia va ganando y lo saben.

    P.D. y yo preguntandome hace unos dias para que querría nadie una fuente de 1000W 😛 La fama es efímera y la informatica ni te cuento…
    Salu2


Accede para responder