Futuras gráficas de Nvidia y ATI gastarán hasta 200W !!!!!
-
El radiador de una RL se calienta mucho? tanto como el dissipador de una CPU?? esk ahora me estoi pensando de ponerle una RL al pc… esk mi habitacion es un infierno como dicen aki. no tengo aire acondicionado, le da el sol de lleno i solo tengo 1 ventana i un ventilador para mi k kuando veo k sube muho calor de ahi a bajo lo pongo al lado de la torre de manera k nos de a los dos. Pero ahi debajo tengo un SAI i el boffer de los Logitech z5500 de 188W con su peazo de dissipador calentorro. sale el aire del ventilador k te kema xD, entonces una RL me iria bien creo.,.
Ya pondre un post en RL para preguntar sobre k modelo comprar asi para principiantes xD
Saludos!
-
No, no da más calor, lo decía como una forma para sacar el calor fuera de casa, porque sería fácil tirar tubos como si fuera la calefacción y poner el radiador fuera al resguardo, así el calor se queda fuera y no como hasta ahora, que utilizamos ventiladores y el calor se queda dentro, por ahora podemos aguantarlo pero si seguimos la escalada de watios al final voy a patentar la idea y todo, ya verás :sisi:
-
¡Esta publicación está eliminada! -
de paso ponemos el ordenador to fuera, pero entonces en verano se frie y le da un colocón de la ostia al PC
-
de paso ponemos el ordenador to fuera, pero entonces en verano se frie y le da un colocón de la ostia al PC
Por eso lo de poner el radiador "en un sitio especial donde no diera el sol y no sufriese las inclemencias del tiempo", algo así como la caseta del perro o parecido xD xD xD
De verdad que me pongo a pensarlo y me parto de risa pero de aquí a nada va a ser la cruda realidad, con tantos watios el calor disipado tiene que ir a algua parte, de momento es dentro de casa y se aguanta pero si siguen así van a tener que pagarme la patente a mi y a TRISTAN_9 xD -
¡Esta publicación está eliminada! -
Y si mejor llamamos al fulano este de los cómics de Marvel (si me equivoco perdonad mi error xD ) que es todo de hielo y le decimos que nos eche una manita con la refrigeración del PC, jajajajajajajajajajaja :risitas:
-
sumergir el pc en nitrogeno liquido va ha ser la mejor opcion pienso yo
-
O también podemos meter nuestro PC en un laboratorio de criogenización…
-
¡Esta publicación está eliminada! -
Me pregunto qué va a hacer la peña que viva en sitios excesivamente cálidos… <:(
-
Y si mejor llamamos al fulano este de los cómics de Marvel (si me equivoco perdonad mi error xD ) que es todo de hielo y le decimos que nos eche una manita con la refrigeración del PC, jajajajajajajajajajaja :risitas:
¿a cual?¿a éste?
¿o a ESTE? :risitas: :risitas:
:risitas:
salu2 ;D
-
Entre el DRM y el calor/consumo de los nuevos engendros se me quitan las ganas de ampliar el ordenata y dedicarme al noble arte de la programaación, navegar y jugar al OGame.
-
¡Esta publicación está eliminada! -
Kimi Iceman Is The Best Cooling Solution… :risitas: Take It NOW!!!
-
Pero el tio se pasa un poco, mira que comerse ese cotxe, pobrecito es un loco este
-
Pero el tio se pasa un poco, mira que comerse ese cotxe, pobrecito es un loco este
ehh…estaba la pista resbaladiza...cof,cof...:risitas: :risitas: :risitas:
-
NO!
Sencillamente tendrás que adaptarle el cable de una central hidroeléctrica sin pasar por transformadores y poner un sistema de aire acondicionado en exclusiva para tu habitación si quieres no derretirte, lo bueno es que en invierno te ahorras la calefacción.Te ahorras calefaccion?? Tu y todo tu barrio se ahorra calefaccion. En realidad es una estrategia conjunta de ATI y NVIDIA que se han unido para hacernos ver que las uniones son buenas (valga la redundancia), y que es mejor compartir el calor con todo tu barrio, y asi al final todos salimos ganando, los que nos dan electricidad, tus vecinos, los fabricantes de fuentes, el calentamiento global, etc.
Que majos son… -
Yo creo que Nvidia y Ati quieren aportar su grano de arena al calentamiento global de la tierra, y por eso las nuevas gráficas van a generar mucho mas calor y consumir mas energía.
Para cuando llegue la próxima edad de hielo, se van a salvar aquellas personas que tengan ordenadores con gráficas de ATI o Nvidia de estos modelos ;D
Y lo que no se ha dicho es ¿ que refrigeración ava a necesitar para enfriar a estas gráficas con ese consumo?
-
No os creáis nada hasta que no lo veáis. La GDDR4 permitirá reducir al menos 25 W respecto a la tarjeta equivalente con GDDR3, así que dudo que los chips (aislados, no contando con la memoria) pasen de consumir de unos 60W a casi 150W, es una locura. El que haya hecho esta estimación se ha ido de listo. Unos valores entre los 100 y los 120W serían mucho más realistas.