NVidia G80, ya se acerca…
-
Jope que bestia, y a ver también el precio, porque barata no será, a ver si cuando salen estas bajan los precios de las de ahora, y eso de una fuente pa las graficasm joe ya podrían hacer que consumieran menos!!!, tanta tecnología investigando para hacer los cores mejor y mejor, y sale esto con ese consumo!, creo que es una burrada 300W de grafica.
-
sobre la mini-fuente de alimentación thermaltake he estado mirando que el ventilador de 4cm se pone a 6.000rpms a plena carga… imaginaros el puta ruido que debe hacer!
-
Pues entre la gráfica y la fuente, mas mejorar la refrigeracion de la torre, creo que te gastaras para gráficos el dinero de un PC normal y corriente + lo que cueste el resto del PC…ufff, que paston.
Y suma la fantura de la luz tambien.... en fin, que pasada.
Yo creo que tendre que aguantar unos años mi equipo, jaja, como mucho hacer un apaño, no se , si no mi madre me pasara la factura de la luz, jeje.Saludos!!
-
Mirad en lo que se han fijado por ahi, no me habia dado cuenta…
En la foto que habia puesto yo salia tapado con el paint y no nos hemos dado cuenta. Qué leches será ese chip ? Es clavado a un chipset de placa base o al propio core de una gráfica actual.
En cambio en esta foto solo sale un conector puente para hacer SLI (suponiendo que sea eso). El otro conector sale marcado, como si inicialmente el PCB estuviese pensado para tener 2. Al igual que solo tiene un conector de alimentación. Puede que sea un modelo inferior pero esté basado en uno superior ?
-
tienes razón.. hay escrito "keep due ^^"… pq lo taparán? Que será ese chip?
Ahora que me fijo, la gráfica de la segunda foto es muchísimo más corta.. serán la gtx y gts respectivamente?
-
serán la gtx y gts respectivamente?
Eso he pensado yo, pero no entiendo porque han tapado ese chip en la supuesta GTX ni porque una tiene 2 conectores de esos tipo puente SLI y la otra no.
-
ummm.. crees que en la gtx se podrá hacer un quad SLI y con la gts no? Eso es lo que interpreto yo, pero a saber que es..
-
Y si ese chip se encarga de la Fisica? con lo que competirian con aegia ( o como se diga) ?? Tengo la sensacion de que nvidia nos va a dar muchas sorpresas con el G80, y no solo malas (con lo del consumo y tamaño)…puede que me este engañando a mi mismo, pero bueno.
Saludos!!
-
Alomejor digo una barbaridad pero, y si es un cotrolador de memoria ya que
- 384-bit memory interface (256-bit+128-bit)
- 768MB memory size (512MB+256M)
Si la he dicho muy gorda no me acribilleis. xD Pero ante la duda.
-
29.9cm la GTX dicen por ahi… eso es un rato más largo que la placa base... estan locos.
Y sobre lo de "New AA mode: VCAA" he leido que se rumorea que es un nuevo algoritmo de anti alias que deberia ser capaz de utilizar el HDR + AA sin problemas.
650€ para la GTX y 450-500€ para la GTS es lo que se comenta.
Ah, el chip ese aun no esta confirmado pero todo apunta a que es para el aeroglass y el Purevideo.
Habrá que esperar al 8 de noviembre
-
Me quedo con mi 6600GT Extreme y la exprimerié todavía un poquito más. Para comprame ese pepino me compro la Play 3 y a correr ;D AL final el consumo de un pc superará al del resto de electrodomésticos de la casa :triston:
-
El segundo conector sli debe ser para la palca en el tercer pci-e 16x que estan empezando a salir en los mothers proximos, para la vga que se encargara de la fisica si es como se dice por ahi. ATI lo va a hacer asi pero NV….
La verdad, una Animalada. -
el 8 de noviembre sale aquí o en Japon o dende sea?
-
Y con que procesador se le saca provecho a eso?, con esto quizas?
-
wala molan los E6X50, no sabia que se iban a hacer, pero sólo hay aumento de velocidad de reloj? o hay algo más?
-
El FSB a 1333, la velocidad no cambia casi. Cuando añadan 2Mb más de caché y suban a más de 3Ghz, son Wolfdale. Por cierto, que bonita es esa tabla, con velocidades tan altas… se me cae la baba... ;D ;D
-
Deberían dedicarse a optimizar lso juegos para las tarjetas existentes y dejarse de tanta tontería y de megatarjetas. Como alguien ha comentado, intel ya se ha dado cuenta de que el camino de cuantos más MHz mejor es equivocado, pero parece que nvidia no se hace eco de los fallos de los demás y sigue sacando una nueva generación de tarjetas cada 6 meses, y aunque eso reduce el precio de las tarjetas anteriores siempre tienes la sensación de ir un paso por detrás en cuanto a tecnología gráfica se refiere…
Un saludo
-
Deberían dedicarse a optimizar lso juegos para las tarjetas existentes y dejarse de tanta tontería y de megatarjetas. Como alguien ha comentado, intel ya se ha dado cuenta de que el camino de cuantos más MHz mejor es equivocado, pero parece que nvidia no se hace eco de los fallos de los demás y sigue sacando una nueva generación de tarjetas cada 6 meses, y aunque eso reduce el precio de las tarjetas anteriores siempre tienes la sensación de ir un paso por detrás en cuanto a tecnología gráfica se refiere…
Un saludo
No solo NVIDIA, también ATi se deberá poner las pilas, no creo que el R600 sea muy fresco o gaste pocos W, vamos, al menos eso son los rumores.
Pero bueno, el tema es que a ellos les interesa vender, y a las empresas de las F.A. y similares también, por lo que no optimizan por bien del usuario, si optimizan es por que les conviene o les beneficia en algo, eso fijo.En fin, yo estoy feliz con mi 7900
Saludos!!
-
¡Esta publicación está eliminada! -
Se la pueden meter por el culo.
Es cierto que ya apenas optimizan… Half Life 2 se podria decir que es el último con una optimización decente, y en su caso en concreto es una optimización ACOJONANTE, por algo se tiraron tanto para hacerlo.