• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse

    NVIDIA NV40 con doble conector molex O_o

    Programado Fijo Cerrado Movido
    Tarjetas Gráficas
    9
    10
    1.1k
    Cargando más mensajes
    • Más antiguo a más nuevo
    • Más nuevo a más antiguo
    • Mayor número de Votos
    Responder
    • Responder como tema
    Accede para responder
    Este tema ha sido borrado. Solo los usuarios que tengan privilegios de administración de temas pueden verlo.
    • NFERNON
      NFERNO
      Última edición por

      Las primeras imágenes de una tarjeta de referencia que monta una GPU NV40 y memoria GDDR3 estan disponibles:
      http://www.digit-life.com/news.html?103013#103013

      ( Quien sabe que ventajas aportaba la GDDR2 respecto a la DDR normal? y tan obsoleta está la 2 como para montar la 3 ??? )

      Muy parecida a las FX actuales, pero aún sigo así O_o, por ver el doble molex de alimentación

      Un Saludo

      1 Respuesta Última respuesta Responder Citar 0
      • B
        barc
        Última edición por

        entonces se calientara mas, no?

        1 Respuesta Última respuesta Responder Citar 0
        • P
          pakohuelva
          Última edición por

          Pues curiosamente una de las ventajas de la GDDR frente la DDR era la reduccion de consumo o, mas bien, la mayor tolerancia a la calor, es decir, que aguantan frecuencias mas altas.

          Lo del doble conector no deberia significar necesariamente mas consumo pero con los antecedentes que tenemos esta claro que consumiran mas y generaran mas calor para un rendimiento que seguramente no este acorde, pero bueno.

          La GDDR es solamente una variante de la DDR y lo del numerito es mas marketing que otra cosa.

          Ya veremos que pasa.

          1 Respuesta Última respuesta Responder Citar 0
          • SpaceRayS
            SpaceRay
            Última edición por

            Me asombra ver que esta lleva dos conectores 😮 y es todavía mas grande que la FX y necesita mas energia y por lo tanto se supone que se calentará más y por ello lleva un sistema de refrigeración mayor, aunque según parece no es ruidoso (ya han aprendido de la FX5800 😄 ) y es efectivo.

            Pero sigue siendo desproporcionado comparado a las graficas Radeon que sólo llevan un conector molex y la refrigeración no es gigante y sólo ocupa un slot PCI y ecesitan menos energía para funcionar y además obtienen más rendimiento que las Nvidia 😄

            En la Geforce 7 que pondrán ¿ 3 conectores molex o incluirán en la caja una fuente de alimentación dedicada únicamente a la gráfica ? :rolleyes:

            Y como es que las han hecho en rojo 😕 ¿es que quieren parecerse y simular a ATI ?

            1 Respuesta Última respuesta Responder Citar 0
            • MonXPM
              MonXP Veteranos HL
              Última edición por

              Me encanta que dejen tanto sitio para meter un disipador bien grande, ahí entra uno de 6x6 seguro, y puede que más grande, jeje… En dos meses gráfica nueva, a ver lo que hay para entonces 😉

              1 Respuesta Última respuesta Responder Citar 0
              • kynesK
                kynes Veteranos HL
                Última edición por

                Hombre, que haya hueco está bien. El problema es cuando te obligan a usar un disipador de 6x6 para poder hacer ALGO de overclock a este monstruito. :nono:

                hlbm signature

                1 Respuesta Última respuesta Responder Citar 0
                • CaEsArC
                  CaEsAr
                  Última edición por

                  En la pag "guru3d" (considero que es una fuente fiable y de prestigio) han probado la tarjeta
                  y afirman lo siguiente: ( http://www.guru3d.com/article/Videocards/128/10/ )

                  "When we flip the card 180 degrees we'll see the much discussed 2 PSU connectors in the form of Molex. I don't know why NVIDIA needed two connectors. Perhaps to keep paths on the PCB short or something. i can tell you this though, the card is not using way more power then it's predecessor. We actually tried out a 350 Watt PSU that was 100% stable on the test system"

                  Rula con una fuente de 350w perfectamente al contrario de lo que se comentaba (480 w) y parece ser que NO consume más que una geforce FX. Los conectores no saben para que estan, pero no son un problema.

                  Yo me miraria el reportaje completo que esta muy bien: http://www.guru3d.com/article/Videocards/128/1/

                  Después de leerlo creo que la geforce 6800 ultra será muy buena tarjeta y no puedo negar que me alegro, porque a pesar de los errores y pifias anteriores de nvidia, que mejoren su calidad implica más competencia con ATI y eso se traduce en beneficio para todos los usuarios: mejores precios , etc…
                  SAUDOS!!

                  1 Respuesta Última respuesta Responder Citar 0
                  • A
                    Azhazel
                    Última edición por

                    En eso estoy de acuerdo.. si con unas tarjetas tan mediocres ( en mi opinión, y viendo alguna ke otra prueba en foros :risitas: :risitas: ) como las Fx, Ati saco mounstruitos como las 9800, con esto enfrente de la acera.. de que va a ser capaz ATi? xD xD xD

                    1 Respuesta Última respuesta Responder Citar 0
                    • MonXPM
                      MonXP Veteranos HL
                      Última edición por

                      Si nvidia no la ha cagado (que parece que no lo ha hecho), la diferencia entre las dos tarjetas se verá cuando ATI saque las suyas, puede que sean muy superiores, y entonces diremos que nvidia la ha vuelto a cagar, que sus tarjetas no valen para nada, que no tiran lo suficiente, etc… En cambio, como ATI saque algo inferior a nvidia diremos que ATI la ha cagado, no se que... En fin, que el análisis hay que hacerlo cuando las dos marcas estén con sus tarjetas en la calle, pudiendo hacer comparaciones reales (por muy odiosas que sean las comparaciones).

                      Lo de si nvidia no la ha cagado, quiero decir que con las FX la cagó por no tener soporte total para Dx9. Esta vez parece que si lo ha hecho bien, aunque falta por ver cuanto se calienta, esperemos que no sea demasiado.

                      Saludos.

                      1 Respuesta Última respuesta Responder Citar 0
                      • WolfW
                        Wolf
                        Última edición por

                        arg….... y siguen empeñados en poner un blowerrrr, digo yo, y su usaran ventiladores normales???, o si enfriaran las 2 caras de la grafica como hace msi????

                        ahora ati va a sacar ..... weno, algo k tirara xra atras XDDD y para mas cachondeo, llevara 1 molex o ninguno y un disipador mini, y tirara mas:P

                        Y..... k pasa con la XGI volari duo ultra?? tb lleva 2 conectores de alimentación...
                        x cierto, no se ande leí k cada molex de la fx esta debia ir de la fuente a la grafica, osease, 2 lineas dedicadas a ella😕

                        salu2

                        1 Respuesta Última respuesta Responder Citar 0
                        • 1 / 1
                        • First post
                          Last post

                        Foreros conectados [Conectados hoy]

                        3 usuarios activos (0 miembros e 3 invitados).
                        febesin, pAtO,

                        Estadísticas de Hardlimit

                        Los hardlimitianos han creado un total de 543.3k posts en 62.8k hilos.
                        Somos un total de 34.8k miembros registrados.
                        hostrago ha sido nuestro último fichaje.