Futuras gráficas de Nvidia y ATI gastarán hasta 200W !!!!!


  • 0

    Me parece increíble que tanto ATI como Nvidia estén pensando en hacer gráficas que vayan a consumir entre 175W y 200W !!!! :confused: :| :o

    Y aunque la noticia original es del Inquirer que podrían exagerar y no ser realistas, la fuente procede realmente de Japón que es de una conferencia y presentación oficial de esta tecnología nueva

    http://www.theinquirer.net/default.aspx?article=33343

    Chips G80 form Nvidia is looking to suck down 175W on a 90nm process, probably a bit less on 80nm.

    Chips R600 from ATI is looking to take about 200W in 80nm, and less if they pull off a shrink to 65nm.

    Y la noticia de la noticia en Japón traducida es esta –-> http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2006%2F0727%2Fkaigai291.htm&langpair=ja%7Cen&hl=en&ie=UTF8

    O sea que las GPU G80 de Nvidia gastaría 175 W con 90nm y algo menos las de 80nm , y las R600 de ATI gastaría 200W con 80nm, y algo menos cuando saquen la tecnología de 65nm

    Teniendo en cuenta que las gráficas actuales más potentes que hay consumen 100W, que ya es mucho, me parece una burrada y una exageración que se pueda pensar en llegar a casi el doble !!!!

    Y este no es algo muy futuro, porque al parecer las primeras gráficas de estas saldrán a finales de este año !!!

    Y si se tiene en cuenta que los futuros CPU gstarán también mas, entonces habrá que comprar fuentes de 800 o 100W para poder hacer funcionar el ordenador. :( :muerto:

    ¿ hasta donde van a llegar ?

    ¿ que va a pasar de aqui a 3 o 5 años?

    ¿ vamos a comprar 3 fuentes para el ordenador? :rabieta: Una para la GPU, otra para la CPU y otra para el ordenador



  • 1
    ¡Esta publicación está eliminada!


  • 2

    @SpaceRay:

    ¿ hasta donde van a llegar ?

    ¿ que va a pasar de aqui a 3 o 5 años?

    ¿ vamos a comprar 3 fuentes para el ordenador? :rabieta: Una para la GPU, otra para la CPU y otra para el ordenador

    NO!
    Sencillamente tendrás que adaptarle el cable de una central hidroeléctrica sin pasar por transformadores y poner un sistema de aire acondicionado en exclusiva para tu habitación si quieres no derretirte, lo bueno es que en invierno te ahorras la calefacción.



  • 3

    Pues , si gastan tanto sera que van ha funcionar tan bien que veremos juegos que pareceran videos reales xD, no??
    Joe, vaya tela marinera, 175 y 200W, esta gente piensan que tenemos un sueldo para pagar la luz exclusivamente, o que? :p

    Saludos!!!!



  • 4

    hola a todos
    200w dentro de poco,de aqui a 4 años tener una grafica de gama alta sera como tener el microondas descongelando carne la mayor parte del dia.se pasan.
    saludos



  • 5

    Aquí lo más conveniente va a ser pagar una hipotequita de nada para construirnos una central eléctrica exclusivamente para la gráfica, algo que no nos va a venir nada mal… sobre todo teniendo en cuenta los beneficios que vamos a obtener: en veranito podremos freir huevos y hacer unas tortillitas sobre nuestras cajas de PC...

    Otra alternativa muy interesante es la de poner un molinillo en lo alto de la casa y aprovechar el viento... o incluso también un panel solar...



  • 6
    ¡Esta publicación está eliminada!


  • 7

    Para eso están las fuentes de 1000W, eso si, para ahorrar, mejor montarse unos aerogeneradores gigantes, o un pequeño reactor nucelar… :risitas:

    Salu2



  • 8

    Yo me pondre un pekeño rector nuclear en lugar de una fuente xD, el dia k pete… a tomar por kulo todo xDDD.

    Lo de los molinillos no es mala idea, o sino placas solares..

    Saludos!



  • 9

    Es que si, los problemas de temperatura ahora mismo ya son serios, tu pon el ordenador, cierra la puerta y no enciendas el aire acondicionado, cuando llegues aunque haga calor en el resto de la casa tu habitación parecerá un infierno, la única solución que se me ocurre es que poner refrigeración liquida y el radiador fuera de casa en un sitio especial donde no diera el sol y no sufriese las inclemencias del tiempo :S



  • 10

    El radiador de una RL se calienta mucho? tanto como el dissipador de una CPU?? esk ahora me estoi pensando de ponerle una RL al pc… esk mi habitacion es un infierno como dicen aki. no tengo aire acondicionado, le da el sol de lleno i solo tengo 1 ventana i un ventilador para mi k kuando veo k sube muho calor de ahi a bajo lo pongo al lado de la torre de manera k nos de a los dos. Pero ahi debajo tengo un SAI i el boffer de los Logitech z5500 de 188W con su peazo de dissipador calentorro. sale el aire del ventilador k te kema xD, entonces una RL me iria bien creo.,.

    Ya pondre un post en RL para preguntar sobre k modelo comprar asi para principiantes xD

    Saludos!



  • 11

    No, no da más calor, lo decía como una forma para sacar el calor fuera de casa, porque sería fácil tirar tubos como si fuera la calefacción y poner el radiador fuera al resguardo, así el calor se queda fuera y no como hasta ahora, que utilizamos ventiladores y el calor se queda dentro, por ahora podemos aguantarlo pero si seguimos la escalada de watios al final voy a patentar la idea y todo, ya verás :sisi:



  • 12
    ¡Esta publicación está eliminada!


  • 13

    de paso ponemos el ordenador to fuera, pero entonces en verano se frie y le da un colocón de la ostia al PC



  • 14

    @cram:

    de paso ponemos el ordenador to fuera, pero entonces en verano se frie y le da un colocón de la ostia al PC

    Por eso lo de poner el radiador "en un sitio especial donde no diera el sol y no sufriese las inclemencias del tiempo", algo así como la caseta del perro o parecido xD xD xD
    De verdad que me pongo a pensarlo y me parto de risa pero de aquí a nada va a ser la cruda realidad, con tantos watios el calor disipado tiene que ir a algua parte, de momento es dentro de casa y se aguanta pero si siguen así van a tener que pagarme la patente a mi y a TRISTAN_9 xD



  • 15
    ¡Esta publicación está eliminada!


  • 16

    Y si mejor llamamos al fulano este de los cómics de Marvel (si me equivoco perdonad mi error xD ) que es todo de hielo y le decimos que nos eche una manita con la refrigeración del PC, jajajajajajajajajajaja :risitas:



  • 17

    sumergir el pc en nitrogeno liquido va ha ser la mejor opcion pienso yo



  • 18

    O también podemos meter nuestro PC en un laboratorio de criogenización… :p



  • 19
    ¡Esta publicación está eliminada!




Has perdido la conexión. Reconectando a Hardlimit.