Futuras gráficas de Nvidia y ATI gastarán hasta 200W !!!!!
-
No, no da más calor, lo decía como una forma para sacar el calor fuera de casa, porque sería fácil tirar tubos como si fuera la calefacción y poner el radiador fuera al resguardo, así el calor se queda fuera y no como hasta ahora, que utilizamos ventiladores y el calor se queda dentro, por ahora podemos aguantarlo pero si seguimos la escalada de watios al final voy a patentar la idea y todo, ya verás :sisi:
-
¡Esta publicación está eliminada! -
de paso ponemos el ordenador to fuera, pero entonces en verano se frie y le da un colocón de la ostia al PC
-
de paso ponemos el ordenador to fuera, pero entonces en verano se frie y le da un colocón de la ostia al PC
Por eso lo de poner el radiador "en un sitio especial donde no diera el sol y no sufriese las inclemencias del tiempo", algo así como la caseta del perro o parecido xD xD xD
De verdad que me pongo a pensarlo y me parto de risa pero de aquí a nada va a ser la cruda realidad, con tantos watios el calor disipado tiene que ir a algua parte, de momento es dentro de casa y se aguanta pero si siguen así van a tener que pagarme la patente a mi y a TRISTAN_9 xD -
¡Esta publicación está eliminada! -
Y si mejor llamamos al fulano este de los cómics de Marvel (si me equivoco perdonad mi error xD ) que es todo de hielo y le decimos que nos eche una manita con la refrigeración del PC, jajajajajajajajajajaja :risitas:
-
sumergir el pc en nitrogeno liquido va ha ser la mejor opcion pienso yo
-
O también podemos meter nuestro PC en un laboratorio de criogenización…
-
¡Esta publicación está eliminada! -
Me pregunto qué va a hacer la peña que viva en sitios excesivamente cálidos… <:(
-
Y si mejor llamamos al fulano este de los cómics de Marvel (si me equivoco perdonad mi error xD ) que es todo de hielo y le decimos que nos eche una manita con la refrigeración del PC, jajajajajajajajajajaja :risitas:
¿a cual?¿a éste?
¿o a ESTE? :risitas: :risitas:
:risitas:
salu2 ;D
-
Entre el DRM y el calor/consumo de los nuevos engendros se me quitan las ganas de ampliar el ordenata y dedicarme al noble arte de la programaación, navegar y jugar al OGame.
-
¡Esta publicación está eliminada! -
Kimi Iceman Is The Best Cooling Solution… :risitas: Take It NOW!!!
-
Pero el tio se pasa un poco, mira que comerse ese cotxe, pobrecito es un loco este
-
Pero el tio se pasa un poco, mira que comerse ese cotxe, pobrecito es un loco este
ehh…estaba la pista resbaladiza...cof,cof...:risitas: :risitas: :risitas:
-
NO!
Sencillamente tendrás que adaptarle el cable de una central hidroeléctrica sin pasar por transformadores y poner un sistema de aire acondicionado en exclusiva para tu habitación si quieres no derretirte, lo bueno es que en invierno te ahorras la calefacción.Te ahorras calefaccion?? Tu y todo tu barrio se ahorra calefaccion. En realidad es una estrategia conjunta de ATI y NVIDIA que se han unido para hacernos ver que las uniones son buenas (valga la redundancia), y que es mejor compartir el calor con todo tu barrio, y asi al final todos salimos ganando, los que nos dan electricidad, tus vecinos, los fabricantes de fuentes, el calentamiento global, etc.
Que majos son… -
Yo creo que Nvidia y Ati quieren aportar su grano de arena al calentamiento global de la tierra, y por eso las nuevas gráficas van a generar mucho mas calor y consumir mas energía.
Para cuando llegue la próxima edad de hielo, se van a salvar aquellas personas que tengan ordenadores con gráficas de ATI o Nvidia de estos modelos ;D
Y lo que no se ha dicho es ¿ que refrigeración ava a necesitar para enfriar a estas gráficas con ese consumo?
-
No os creáis nada hasta que no lo veáis. La GDDR4 permitirá reducir al menos 25 W respecto a la tarjeta equivalente con GDDR3, así que dudo que los chips (aislados, no contando con la memoria) pasen de consumir de unos 60W a casi 150W, es una locura. El que haya hecho esta estimación se ha ido de listo. Unos valores entre los 100 y los 120W serían mucho más realistas.
-
No os creáis nada hasta que no lo veáis. La GDDR4 permitirá reducir al menos 25 W respecto a la tarjeta equivalente con GDDR3, así que dudo que los chips (aislados, no contando con la memoria) pasen de consumir de unos 60W a casi 150W, es una locura. El que haya hecho esta estimación se ha ido de listo. Unos valores entre los 100 y los 120W serían mucho más realistas.
osea, que la nueva X1950 que tiene GDDR4 consume menos?
Que buena noticia.
Salu2 ;D