Futuras gráficas de Nvidia y ATI gastarán hasta 200W !!!!!
-
¡Esta publicación está eliminada! -
Me pregunto qué va a hacer la peña que viva en sitios excesivamente cálidos… <:(
-
Y si mejor llamamos al fulano este de los cómics de Marvel (si me equivoco perdonad mi error xD ) que es todo de hielo y le decimos que nos eche una manita con la refrigeración del PC, jajajajajajajajajajaja :risitas:
¿a cual?¿a éste?
¿o a ESTE? :risitas: :risitas:
:risitas:
salu2 ;D
-
Entre el DRM y el calor/consumo de los nuevos engendros se me quitan las ganas de ampliar el ordenata y dedicarme al noble arte de la programaación, navegar y jugar al OGame.
-
¡Esta publicación está eliminada! -
Kimi Iceman Is The Best Cooling Solution… :risitas: Take It NOW!!!
-
Pero el tio se pasa un poco, mira que comerse ese cotxe, pobrecito es un loco este
-
Pero el tio se pasa un poco, mira que comerse ese cotxe, pobrecito es un loco este
ehh…estaba la pista resbaladiza...cof,cof...:risitas: :risitas: :risitas:
-
NO!
Sencillamente tendrás que adaptarle el cable de una central hidroeléctrica sin pasar por transformadores y poner un sistema de aire acondicionado en exclusiva para tu habitación si quieres no derretirte, lo bueno es que en invierno te ahorras la calefacción.Te ahorras calefaccion?? Tu y todo tu barrio se ahorra calefaccion. En realidad es una estrategia conjunta de ATI y NVIDIA que se han unido para hacernos ver que las uniones son buenas (valga la redundancia), y que es mejor compartir el calor con todo tu barrio, y asi al final todos salimos ganando, los que nos dan electricidad, tus vecinos, los fabricantes de fuentes, el calentamiento global, etc.
Que majos son… -
Yo creo que Nvidia y Ati quieren aportar su grano de arena al calentamiento global de la tierra, y por eso las nuevas gráficas van a generar mucho mas calor y consumir mas energía.
Para cuando llegue la próxima edad de hielo, se van a salvar aquellas personas que tengan ordenadores con gráficas de ATI o Nvidia de estos modelos ;D
Y lo que no se ha dicho es ¿ que refrigeración ava a necesitar para enfriar a estas gráficas con ese consumo?
-
No os creáis nada hasta que no lo veáis. La GDDR4 permitirá reducir al menos 25 W respecto a la tarjeta equivalente con GDDR3, así que dudo que los chips (aislados, no contando con la memoria) pasen de consumir de unos 60W a casi 150W, es una locura. El que haya hecho esta estimación se ha ido de listo. Unos valores entre los 100 y los 120W serían mucho más realistas.
-
No os creáis nada hasta que no lo veáis. La GDDR4 permitirá reducir al menos 25 W respecto a la tarjeta equivalente con GDDR3, así que dudo que los chips (aislados, no contando con la memoria) pasen de consumir de unos 60W a casi 150W, es una locura. El que haya hecho esta estimación se ha ido de listo. Unos valores entre los 100 y los 120W serían mucho más realistas.
osea, que la nueva X1950 que tiene GDDR4 consume menos?
Que buena noticia.
Salu2 ;D
-
A los sres que debaten localizaciones extrañas para el radiador les he de decir:
Krampak ha hecho ya todo lo que vosotros decis (excepto la caseta del perro xD)
-
Y que resultado le ha dado?
-
Preguntale.