NVIDIA NV40 con doble conector molex O_o



  • Las primeras imágenes de una tarjeta de referencia que monta una GPU NV40 y memoria GDDR3 estan disponibles:
    http://www.digit-life.com/news.html?103013#103013

    ( Quien sabe que ventajas aportaba la GDDR2 respecto a la DDR normal? y tan obsoleta está la 2 como para montar la 3 ??? )

    Muy parecida a las FX actuales, pero aún sigo así O_o, por ver el doble molex de alimentación

    Un Saludo



  • entonces se calientara mas, no?



  • Pues curiosamente una de las ventajas de la GDDR frente la DDR era la reduccion de consumo o, mas bien, la mayor tolerancia a la calor, es decir, que aguantan frecuencias mas altas.

    Lo del doble conector no deberia significar necesariamente mas consumo pero con los antecedentes que tenemos esta claro que consumiran mas y generaran mas calor para un rendimiento que seguramente no este acorde, pero bueno.

    La GDDR es solamente una variante de la DDR y lo del numerito es mas marketing que otra cosa.

    Ya veremos que pasa.



  • Me asombra ver que esta lleva dos conectores :o y es todavía mas grande que la FX y necesita mas energia y por lo tanto se supone que se calentará más y por ello lleva un sistema de refrigeración mayor, aunque según parece no es ruidoso (ya han aprendido de la FX5800 :D ) y es efectivo.

    Pero sigue siendo desproporcionado comparado a las graficas Radeon que sólo llevan un conector molex y la refrigeración no es gigante y sólo ocupa un slot PCI y ecesitan menos energía para funcionar y además obtienen más rendimiento que las Nvidia :D

    En la Geforce 7 que pondrán ¿ 3 conectores molex o incluirán en la caja una fuente de alimentación dedicada únicamente a la gráfica ? :rolleyes:

    Y como es que las han hecho en rojo :confused: ¿es que quieren parecerse y simular a ATI ?


  • Veteranos HL

    Me encanta que dejen tanto sitio para meter un disipador bien grande, ahí entra uno de 6x6 seguro, y puede que más grande, jeje… En dos meses gráfica nueva, a ver lo que hay para entonces ;)


  • Veteranos HL

    Hombre, que haya hueco está bien. El problema es cuando te obligan a usar un disipador de 6x6 para poder hacer ALGO de overclock a este monstruito. :nono:



  • En la pag "guru3d" (considero que es una fuente fiable y de prestigio) han probado la tarjeta
    y afirman lo siguiente: ( http://www.guru3d.com/article/Videocards/128/10/ )

    "When we flip the card 180 degrees we'll see the much discussed 2 PSU connectors in the form of Molex. I don't know why NVIDIA needed two connectors. Perhaps to keep paths on the PCB short or something. i can tell you this though, the card is not using way more power then it's predecessor. We actually tried out a 350 Watt PSU that was 100% stable on the test system"

    Rula con una fuente de 350w perfectamente al contrario de lo que se comentaba (480 w) y parece ser que NO consume más que una geforce FX. Los conectores no saben para que estan, pero no son un problema.

    Yo me miraria el reportaje completo que esta muy bien: http://www.guru3d.com/article/Videocards/128/1/

    Después de leerlo creo que la geforce 6800 ultra será muy buena tarjeta y no puedo negar que me alegro, porque a pesar de los errores y pifias anteriores de nvidia, que mejoren su calidad implica más competencia con ATI y eso se traduce en beneficio para todos los usuarios: mejores precios , etc…
    SAUDOS!!



  • En eso estoy de acuerdo.. si con unas tarjetas tan mediocres ( en mi opinión, y viendo alguna ke otra prueba en foros :risitas: :risitas: ) como las Fx, Ati saco mounstruitos como las 9800, con esto enfrente de la acera.. de que va a ser capaz ATi? xD xD xD


  • Veteranos HL

    Si nvidia no la ha cagado (que parece que no lo ha hecho), la diferencia entre las dos tarjetas se verá cuando ATI saque las suyas, puede que sean muy superiores, y entonces diremos que nvidia la ha vuelto a cagar, que sus tarjetas no valen para nada, que no tiran lo suficiente, etc… En cambio, como ATI saque algo inferior a nvidia diremos que ATI la ha cagado, no se que... En fin, que el análisis hay que hacerlo cuando las dos marcas estén con sus tarjetas en la calle, pudiendo hacer comparaciones reales (por muy odiosas que sean las comparaciones).

    Lo de si nvidia no la ha cagado, quiero decir que con las FX la cagó por no tener soporte total para Dx9. Esta vez parece que si lo ha hecho bien, aunque falta por ver cuanto se calienta, esperemos que no sea demasiado.

    Saludos.



  • arg….... y siguen empeñados en poner un blowerrrr, digo yo, y su usaran ventiladores normales???, o si enfriaran las 2 caras de la grafica como hace msi????

    ahora ati va a sacar ..... weno, algo k tirara xra atras XDDD y para mas cachondeo, llevara 1 molex o ninguno y un disipador mini, y tirara mas:P

    Y..... k pasa con la XGI volari duo ultra?? tb lleva 2 conectores de alimentación...
    x cierto, no se ande leí k cada molex de la fx esta debia ir de la fuente a la grafica, osease, 2 lineas dedicadas a ella:confused:

    salu2


Accede para responder
 

Has perdido la conexión. Reconectando a Hardlimit.