Para aclaración la tarjeta de la q habla la persona en el foro es una GTX260 216sp OC, pero el consumo esta disparado de la misma forma, lo aclaro para evitar malos entendidos.
Saludos…
Para aclaración la tarjeta de la q habla la persona en el foro es una GTX260 216sp OC, pero el consumo esta disparado de la misma forma, lo aclaro para evitar malos entendidos.
Saludos…
Perdón por contestar tarde, pero miren una persona reportando el mismo problema de consumo en la HD4870
Amperaje grafica GPUz - Comunidad N3D
Yo tomo los datos con el GPU-Z y con el Everest Ultímate Edition, pero este consumo no es en todas estas tarjetas, depende mucho del ensamblador. El Overclock q más utilizo en mi tarjeta es GPU-780MHz GDDR5-1060MHz.
Y por lo de las fuentes de poder, yo entiendo todo lo q ustedes comentan, no entiendo por q tanto empeño en lo mismo.
Luego boy a postear esto del consumo de la HD4870 para discutir el tema.
Saludos…
Perdón por la demora en contestar, he Wargreymon q bueno q hayas contestado, pero mira como es la vida, ahora eres tú el que dice lo mismo q yo, sumar los Amperajes en el ejemplo y nada más, tomate un tiempo y revisa todo lo dicho por mi hasta ahora y te darás cuenta q estamos dando vueltas en circulo.
Te explico por q yo me vaso en el amperaje y no como cuento de los Watts q anuncian los fabricantes.
En la actualidad existen una cantidad de fuentes q dicen rendir por ejemplo a 450w pero q en la línea de 12v dicen q el Amperaje es de 16A. Entonces 16A. x 12v = 192w, entonces de q me sirven los 450w si yo para mover una grafica lo q necesito es potencia en los 12v.
Bueno la empresa solo garantiza los 192w de la línea de 12v, los demás restantes se invierten en el resto de líneas de la fuente, q por cierto en las fuentes de mala calidad nunca son verdaderos.
Solo por eso yo me vaso en Amperaje y no Watts, las empresas siempre mienten a la hora de colocar los Watts.
En fin, de maneras deferentes los dos llegamos a una misma meta, pero q ami solo me importa la capacidad de la línea de 12v, el resto es historia, nuestra diferencia es que tú lo calculas en Watts y yo en Amperios.
Seria bueno hacer un post sobre este tema y conocer la forma de pensar de los demás.
Mira esta es mi fuente tiene 3 líneas de 12v… 12v1= 22A. 12v2=22A. 12v3=25A.
Mira en esta pagina
Saludos…
Hola Wargreymon, bueno tu sabes que todos hacemos las cosas según nos funcionan y ese es el método que yo uso por q es lógico, y en la practica las cosas toman otro color,
Mira te describo algo, la HD4870 según las especificaciones técnicas consume 150w, por ende la HD4850 debe consumir menos, exactamente 110w. Según tú forma de calcular el amperaje, que en realidad no pienso que este mal, por el contrario esta correcto, sino que no se cumple en estos casos.
HD4870 150w/12v = 12.5A… bueno esto según tus cálculos, pero ojala fuera cierto eso.
Según las pruebas q he hecho la HD4870 sin Overclock [GPU-750MHz GDDR5-900MHz] corriendo programas de testeo para forzarla a su máximo consume 47A. Pero con Overclock [GPU-800MHz GDDR5-1020MHz], acabo de hacer una prueba para hablar con bases fundadas en la realidad y su consumo es de 50A. En promedio. Es aquí donde la realidad le gana a la fantasía. Según ATI su consumo normal debe oscilar los 30A. De promedio.
Saca tus propias conclusiones.
50A. x 12v = 600w con mi fuente de 650w, bueno tu sabes q según los que saben las fuentes [Reales o conmutadas] como las llamamos acá en Colombia tienen la capacidad de resistir dispositivos q sobrepasen su rendimiento con la contraparte de una elevación en la temperatura, eso según los q saben en realidad, no lo digo yo, pero es en eso en lo q me baso, prestarle más atención al Amperaje q a los Watts, pero de todas formas no creo q esta tarjeta llegue por ningún motivo a esos 600w según tu forma de calcular, es obvio q al incrementarse el A. se aumente el W. pero seria un absurdo pensar q llegue hasta tanto y si fuera así ya mi PC se abría quemado aunque las formulas numéricas nunca fallan esto se convierte en una contradicción porque las pruebas tampoco fallan.
http://img.chw.net/sitio/stories/HD_4870/1214369456_consumo.JPG
Dime Wargreymon q piensas tu.
De todos modos me agrada q hallas participado así aprenderemos más los unos de los otros. Si tienes otra cosa q aclarar, por favor estoy dispuesto a poner atención.
En fin [Lordf], prueba tu fuente de la forma que más te parezca para q compruebes si corre o no a la HD4850.
Espero seguir viendo opiniones.
Saludos…
Todos tienen la razón, todos hablan con la verdad, pero existe un gran problema en el que nadie se fija a la hora de adquirir un PC o una fuente de poder.
El problema es q nadie tiene en cuenta el amperaje, ala hora de hacer Overclock a una Grafica el consumo en amperios se dispara a niveles tremendamente altos, forzando la fuente a su limite, en el caso de la HD4870 q regularmente consume 30A aproximadamente, a la hora de hacer el Overclock el consumo pasa a unos 59A q es realmente exagerado, debido al alto consumo de las GDDR5 de ATI. Hasta ahora he corregido el problema con modificaciones al BIOS de la Grafica quedando en 51A aprox.
El caso es que para ese PC al q te refieres, con una HD4890 incorporada, su nivel de consumo es sumamente extremo y más con el Overclock q obviamente todos hacemos.
Por esta razón una fuente de 500w no te servirá de nada, debes inclinarte a conseguir fuentes que sobrepasen los 650w o 700w.
Espero q te sirva de algo.
Saludos…
Lo que te dice Jesus_Panella es cierto pero lo q tu estas pensando no lo es, mira te explico.
En cuestión de tarjetas graficas se debe tener en cuenta más q cualquier cosa el amperaje de la línea de 12v de la fuente de alimentación, así q si el mínimo amperaje q requiere la HD4850 para funcionar es de 26A, entonces mira tu fuente de poder y compara, si tu fuente sobrepasa esta cifra no importa q solo sea de 420w, pues por q en ese caso estaría sobrada para correr esa tarjeta.
Por otro lado se debe tener en cuenta q la HD4850 requiere solo 110w para funcionar, 420w - 110w = 310w, mira q te sobran 310w, yo creo q con esto podrás mover bien tu PC o saca las cuentas de cuanto consume cada dispositivo de los q tienes instalado y súmalo mas el consumo de la 4870 y listo.
Nota: para calcular el amperaje de tu fuente, por si no lo sabes, siempre aparecen varias líneas de 12v por lo general 3 o 4.
O no se describe como 12v sino solo con el color amarillo q lo representa, solo suma el amperaje de cada una de dichas líneas y tendrás tu valor, no tengas en cuenta las otras líneas de alimentación como 5v etc… pues la tarjeta no las utiliza.
Espero ser lo suficientemente claro y q te sirva de algo
Saludos…
Mira la marca y modelo de mi fuente de poder… [Antec EA – 650], pues es muy buena, a mi me ha servido excelentemente, te puede servir, además mueve aproximadamente 69 Amperios en la línea de 12v consistentes en 3 fuentes conmutadas, Tiene 2 salidas PCI-E 6y8 pines, es buena para tarjetas de alto rendimiento.
Cualquier cosa coméntala.
Saludos…
Bueno según tú pregunta. Se supone q el PCI-Express 2.0 y 1.0 son extremadamente compatibles entre si. Así q el problema no debe radicar en este aspecto.
Además, si así fuera entonces tampoco podrías instalar la Nvidia 8800 Ultra q encargaste por q también es PCI-E 1.0, si no puedes entrar al BIOS del PC intenta quitar la tarjeta grafica y limpia los contactos de la misma, pueden estar algo sulfatados, descarto un problema de energía, pero valdría una revisión a la fuente.
De poder entrar de algún modo a la BIOS, revisa que la frecuencia del PCI-E sea de 100MHz, si se encuentra en automático, intenta modificarla manualmente a ese valor, o espera probar la 8800Ultra para descartar problemas en la tarjeta actual.
El caso de la RAM es muy importante y más en el i7, tenlo muy en cuenta.
Espero q sea oportuna la respuesta.
Saludos…
Si, al momento de teclear el 5, teclee fue el 7 por error, pero yo se q es una HD4850 la de tu pregunta.
Saludos…
Es q la comparación entre la HD4870 vs 9600GT no existe, por q la ATI es extremadamente superior, no tienen comparación.
Inclínate definitivamente por la ATI y por el mito de los Drivers no te preocupes, yo soy usuario de ATI HD4870 512 y con los Drivers actuales puedes hasta controlar la velocidad al ventilador, así que no necesitas programas como RivaTuner ni nada por el estilo para elevar la velocidad de tu tarjeta.
En efecto la HD4770 es muy superior a la 9600GT, pero no se consigue por q la tecnología de manufactura de su procesador es de [40nm de tamaño], lo que quiere decir q es mas pequeño q el de las otras 2.
por lo tanto el consumo de energía es menor, pero es mas difícil de producir. Por eso es tan escasa.
Te aclaro la HD4850 puede rendir regularmente 40% o 90% más q la 9600GT, pero eso depende directamente de la configuración de los gráficos, pues la forma de mover un juego varia de una tarjeta a la otra.
Pudieran haver casos en donde la ATI rinda menos de los 40% pues no soy un dios para dar datos 100% exactos pero serian muy remotos los casos, dado el poder de la HD4850.
Saludos…
Sin duda alguna, la HD4850 es en extremo superior en todos los aspectos a la 9600GT.
Mira esta leve comparación:
HD 4850
Shader Processors: 800
Process: 55 nm
FLOPS: 1000 GFLOPS
Memory Bandwidth: 63.552 GB/sec
9600 GT
Shader Processors: 64
Process: 65 nm
FLOPS 208 GFLOPS
Memory Bandwidth: 57.6 GB/sec
Por los [800 Shader Processors] de la ATI, esta mueve a mayor velocidad los cálculos de sombras y los [1000 GFLOPS] quieren decir sin duda q el Core de la ATI es extremadamente mas rápido q el de la NVidia, además el [Memory Bandwidth: 63.552 GB/sec] de la ATI le permite cargar y descargar a mayor velocidad la memoria, superando también a la 9600GT.
Estos son 3 factores muy importantes a la Hora de mover un juego. Por el precio, pues las 2 cuestan casi lo mismo, dependiendo del ensamblador y el consumo de energía es casi igual.
Espero te haya servido la respuesta.
Saludos…
Sin duda WARGREIMON tiene la razón, yo soy usuario de una ATI HD4870 512 y esta más que probado q los Drivers funcionan mejor si se formatea totalmente el sistema. Ojo formatear, no sobre instalar.
Pero para la duda con respecto a las graficas, te ira mejor conseguir una de nivel moderado por lo del cuello de botella q es una realidad y tu PC no posee la fuerza necesaria para mover una de esas ATI a su máximo desempeño. Además es peor experimentar un cuello de botella q tener una grafica inferior, lo digo por experiencia propia.
Saludos…
No creo que sea posible, pues de estar desbloqueado el multiplicador hacia arriba o hacia abajo, de todos modos existe siempre el rango mínimo y el rango máximo y no creo q el rango mínimo de un procesador de 2.8 GHz sea 200 MHz, en el caso de mi procesador q es un Core 2 Duo E8400 3.0 GHz, el estándar del multiplicador es de 9, con un FSB de 1333 MHz, pero se puede reducir el multiplicador a su rango mínimo que es 6, reduciendo su velocidad a 2.6 GHz, pero según mis pruebas existe una perdida de rendimiento q para q no ocurra se debe incrementar el FSB solo un poco, además debes considerar q seria un absurdo reducir la velocidad del núcleo por q se reduce la velocidad con la q calcula el procesador haciéndolo mas lento.
El FSB solo sirve para determinar la velocidad de comunicación de los componentes, pero esa velocidad sin los infinitamente veloces cálculos del procesador no sirve de nada, de q sirve un increíble FSB si el procesador entrega los cálculos de manera tardía.
Considera lo q mencione. Solo es conveniente reducir el multiplicador si se eleva la velocidad del FSB, pues de no hacerlo se pierde rendimiento.
Otra cosa q debes tener en cuenta es q reducir el multiplicador solo se usa para llevar al limite los componentes, cuando se hace overclock se explotan máximas velocidades, pero siempre existe un componente que no tolera dichas velocidades al limite, en caso de que la board en teoría soportara un FSB de 2500 pero a esa velocidad el Core se pase de su limite, se detecta un error, entonces lo q se hace es reducir el multiplicador para reducir solo un poco el core y de esta manera se puede subir libremente el FSB y llevar al limite la borrad.
Espero no haberme equivocado y q te halla servido de algo la respuesta… saludos.
Creo q cometiste un error al no probar el sonido delante de los técnicos, al mandar la board al servicio de garantía el usuario no tiene por q pagar nada, pero si en realidad esta mal el sonido, ellos te dirán q no lo estaba para q te toque pagarles por algo q es gratis.
Mágicamente cuando llegues a tu casa te encontraras con que no existe tal problema.
Pero cave aclarar que un problema de sonido generalmente no produce problemas de pantalla azul. Este problema debe radicar efectivamente en la memoria, sea por simple compatibilidad o algún daño de los puertos.
Nota: un puerto dañado, daña la memoria. Tal vez por eso se daño la antigua q cambiaste, ese daño de puertos en algunos casos los produce una fuente de poder en mal estado. Pero no creo q ese sea el caso.
Espero te sirva esta respuesta
Mira si aun te sirve esta respuesta, la Radeon HD 3850. Esta es la mejor tarjeta AGP q existe, le puedes colocar un convertidor DVI-HDMI para conectarla a la TV, pero la resolución depende mas q todo de lo soportado por la misma TV…
Mira en esta dirección:
ATI Radeon HD 3850 (Análisis) - Video - GameproTv
Espero q te sirva de algo la respuesta.