ATI 4850 512 o NVIDA 9600 GT 512


  • 0

    A ver dudo este entra dos tarjetas, supongo que la RADEON será mejor pero el caso es que me sale casi 40 euros más cara que la NVIDA y no sé si vale la pena pagar esa diferencia de dinero.
    Muchas gracias a todos por vuestra ayuda.
    Un saludo



  • 1

    Sin duda alguna, la HD4850 es en extremo superior en todos los aspectos a la 9600GT.
    Mira esta leve comparación:

    HD 4850
    Shader Processors: 800
    Process: 55 nm
    FLOPS: 1000 GFLOPS
    Memory Bandwidth: 63.552 GB/sec

    9600 GT
    Shader Processors: 64
    Process: 65 nm
    FLOPS 208 GFLOPS
    Memory Bandwidth: 57.6 GB/sec

    Por los [800 Shader Processors] de la ATI, esta mueve a mayor velocidad los cálculos de sombras y los [1000 GFLOPS] quieren decir sin duda q el Core de la ATI es extremadamente mas rápido q el de la NVidia, además el [Memory Bandwidth: 63.552 GB/sec] de la ATI le permite cargar y descargar a mayor velocidad la memoria, superando también a la 9600GT.

    Estos son 3 factores muy importantes a la Hora de mover un juego. Por el precio, pues las 2 cuestan casi lo mismo, dependiendo del ensamblador y el consumo de energía es casi igual.

    Espero te haya servido la respuesta.

    Saludos…



  • 2

    Hola, sí, me ha servido a medias ya que todo lo que comentas me suena a chino jeje,y o lo único que sé es que con la que tengo, una nvidia 8400 gs, el mass effect por ejemplo me va a tirones, el bioshock ralentizado, el Racer Grid no parece que vayas en coche sino en tortuga y así hasta el infinito y más allá. Todo eso con un pentium dual core 2,5 Ghz 3,5 Gb RAM. De ahí la duda, el caso es que de pasta ando justillo y si vale la pena haría el esfuerzo por la 4850…



  • 3

    Te aclaro la HD4850 puede rendir regularmente 40% o 90% más q la 9600GT, pero eso depende directamente de la configuración de los gráficos, pues la forma de mover un juego varia de una tarjeta a la otra.

    Pudieran haver casos en donde la ATI rinda menos de los 40% pues no soy un dios para dar datos 100% exactos pero serian muy remotos los casos, dado el poder de la HD4850.

    Saludos…



  • 4

    sie s por dinero compra la 4770 es mas barata y casi tan buena como la 4850

    saludos



  • 5

    El problema es que la 4770 donde la he de comprar no la suministran, no me preguntes por qué…



  • 6

    En efecto la HD4770 es muy superior a la 9600GT, pero no se consigue por q la tecnología de manufactura de su procesador es de [40nm de tamaño], lo que quiere decir q es mas pequeño q el de las otras 2.

    por lo tanto el consumo de energía es menor, pero es mas difícil de producir. Por eso es tan escasa.



  • 7

    entonces vale la pena pagar esa diferencia por la 4850?



  • 8

    Es q la comparación entre la HD4870 vs 9600GT no existe, por q la ATI es extremadamente superior, no tienen comparación.

    Inclínate definitivamente por la ATI y por el mito de los Drivers no te preocupes, yo soy usuario de ATI HD4870 512 y con los Drivers actuales puedes hasta controlar la velocidad al ventilador, así que no necesitas programas como RivaTuner ni nada por el estilo para elevar la velocidad de tu tarjeta.



  • 9

    @iconuser:

    Es q la comparación entre la HD4870 vs 9600GT no existe, por q la ATI es extremadamente superior, no tienen comparación.

    Inclínate definitivamente por la ATI y por el mito de los Drivers no te preocupes, yo soy usuario de ATI HD4870 512 y con los Drivers actuales puedes hasta controlar la velocidad al ventilador, así que no necesitas programas como RivaTuner ni nada por el estilo para elevar la velocidad de tu tarjeta.

    Me has convencido , aunque en realidad es una 4850 y no 4870 jeje muchas gracias.



  • 10

    Si, al momento de teclear el 5, teclee fue el 7 por error, pero yo se q es una HD4850 la de tu pregunta.

    Saludos…



  • 11

    Ve directamente a por la HD4850 si vas a escoger entre estas dos. La HD4850 es muy superior a la 9600 GT en todos los juegos modernos. Y desde luego que por 40 € de diferencia entre ambas vale la pena pagarlas.

    Para comparaciones de gráficas tienes esta dirección.

    Performance Charts Graphics Cards - Benchmark



  • 12

    Muchas gracias a todos por vuestras respuestas, ya me he decidido por la 4850; una última pregunta, me puede dar problemas con la fuente de alimentación?



  • 13

    Deberías decir qué fuente de alimentación tiene tu PC.

    Los requisitos mínimos de esa tarjeta gráfica son una fuente de alimentación de calidad mínimo 450W con un amperaje mínimo de 26 A en la línea +12V.

    Aunque yo te aconsejería una fuente de 550 W y que sea de calidad, como la Corsair, OCZ, Gigabyte.



  • 14

    Mi fuente de alimentación lo acabo de mirar y es de 420W, es decir que casi que me puedo ir olvidando…



  • 15

    Busca una 4770 ;)



  • 16

    Lo que te dice Jesus_Panella es cierto pero lo q tu estas pensando no lo es, mira te explico.

    En cuestión de tarjetas graficas se debe tener en cuenta más q cualquier cosa el amperaje de la línea de 12v de la fuente de alimentación, así q si el mínimo amperaje q requiere la HD4850 para funcionar es de 26A, entonces mira tu fuente de poder y compara, si tu fuente sobrepasa esta cifra no importa q solo sea de 420w, pues por q en ese caso estaría sobrada para correr esa tarjeta.

    Por otro lado se debe tener en cuenta q la HD4850 requiere solo 110w para funcionar, 420w - 110w = 310w, mira q te sobran 310w, yo creo q con esto podrás mover bien tu PC o saca las cuentas de cuanto consume cada dispositivo de los q tienes instalado y súmalo mas el consumo de la 4870 y listo.

    Nota: para calcular el amperaje de tu fuente, por si no lo sabes, siempre aparecen varias líneas de 12v por lo general 3 o 4.

    O no se describe como 12v sino solo con el color amarillo q lo representa, solo suma el amperaje de cada una de dichas líneas y tendrás tu valor, no tengas en cuenta las otras líneas de alimentación como 5v etc… pues la tarjeta no las utiliza.

    Espero ser lo suficientemente claro y q te sirva de algo

    Saludos…



  • 17

    @iconuser:

    Lo que te dice Jesus_Panella es cierto pero lo q tu estas pensando no lo es, mira te explico.

    En cuestión de tarjetas graficas se debe tener en cuenta más q cualquier cosa el amperaje de la línea de 12v de la fuente de alimentación, así q si el mínimo amperaje q requiere la HD4850 para funcionar es de 26A, entonces mira tu fuente de poder y compara, si tu fuente sobrepasa esta cifra no importa q solo sea de 420w, pues por q en ese caso estaría sobrada para correr esa tarjeta.

    Por otro lado se debe tener en cuenta q la HD4850 requiere solo 110w para funcionar, 420w - 110w = 310w, mira q te sobran 310w, yo creo q con esto podrás mover bien tu PC o saca las cuentas de cuanto consume cada dispositivo de los q tienes instalado y súmalo mas el consumo de la 4870 y listo.

    Nota: para calcular el amperaje de tu fuente, por si no lo sabes, siempre aparecen varias líneas de 12v por lo general 3 o 4.

    O no se describe como 12v sino solo con el color amarillo q lo representa, solo suma el amperaje de cada una de dichas líneas y tendrás tu valor, no tengas en cuenta las otras líneas de alimentación como 5v etc… pues la tarjeta no las utiliza.

    Espero ser lo suficientemente claro y q te sirva de algo

    Saludos…

    Creo que ahí te has colao :p

    En algunas fuentes, como dices, aparecen las líneas de 12v separadas, por ejemplo 12v1 = 18A y 12v2=20A. El amperaje total en ese caso NO sería 20 + 18 = 38A. Ya se que va contra la lógica pero es así (hombre, hay alguna excepción).

    La única manera de saber el amperaje total es que lo ponga en la fuente, y si no pone el total pero sale la potencia de la línea de 12v es fácil descubrir cual es el amperaje total. La forma más fácil de saber el amperaje que necesita una HD4850 por ejemplo, dices que consume 110w, pues entonces:

    110/12 = 9,2A

    Una HD4850 necesita 9,2A para ella solita. A lo que me refería con saber el amperaje total de las líneas de 12v es que si salen las líneas separadas pero te dice que el wattage total de la línea de 12v es de, por ejemplo 400w, pues el amperaje total sería:

    400/12= 33,4A

    Así funciona el asunto ;)



  • 18

    Hola Wargreymon, bueno tu sabes que todos hacemos las cosas según nos funcionan y ese es el método que yo uso por q es lógico, y en la practica las cosas toman otro color,

    Mira te describo algo, la HD4870 según las especificaciones técnicas consume 150w, por ende la HD4850 debe consumir menos, exactamente 110w. Según tú forma de calcular el amperaje, que en realidad no pienso que este mal, por el contrario esta correcto, sino que no se cumple en estos casos.

    HD4870 150w/12v = 12.5A… bueno esto según tus cálculos, pero ojala fuera cierto eso.

    Según las pruebas q he hecho la HD4870 sin Overclock [GPU-750MHz GDDR5-900MHz] corriendo programas de testeo para forzarla a su máximo consume 47A. Pero con Overclock [GPU-800MHz GDDR5-1020MHz], acabo de hacer una prueba para hablar con bases fundadas en la realidad y su consumo es de 50A. En promedio. Es aquí donde la realidad le gana a la fantasía. Según ATI su consumo normal debe oscilar los 30A. De promedio.

    Saca tus propias conclusiones.

    50A. x 12v = 600w con mi fuente de 650w, bueno tu sabes q según los que saben las fuentes [Reales o conmutadas] como las llamamos acá en Colombia tienen la capacidad de resistir dispositivos q sobrepasen su rendimiento con la contraparte de una elevación en la temperatura, eso según los q saben en realidad, no lo digo yo, pero es en eso en lo q me baso, prestarle más atención al Amperaje q a los Watts, pero de todas formas no creo q esta tarjeta llegue por ningún motivo a esos 600w según tu forma de calcular, es obvio q al incrementarse el A. se aumente el W. pero seria un absurdo pensar q llegue hasta tanto y si fuera así ya mi PC se abría quemado aunque las formulas numéricas nunca fallan esto se convierte en una contradicción porque las pruebas tampoco fallan.

    http://img.chw.net/sitio/stories/HD_4870/1214369456_consumo.JPG

    Dime Wargreymon q piensas tu.

    De todos modos me agrada q hallas participado así aprenderemos más los unos de los otros. Si tienes otra cosa q aclarar, por favor estoy dispuesto a poner atención.

    En fin [Lordf], prueba tu fuente de la forma que más te parezca para q compruebes si corre o no a la HD4850.

    Espero seguir viendo opiniones.

    Saludos…



  • 19

    @iconuser:

    Hola Wargreymon, bueno tu sabes que todos hacemos las cosas según nos funcionan y ese es el método que yo uso por q es lógico, y en la practica las cosas toman otro color,

    Mira te describo algo, la HD4870 según las especificaciones técnicas consume 150w, por ende la HD4850 debe consumir menos, exactamente 110w. Según tú forma de calcular el amperaje, que en realidad no pienso que este mal, por el contrario esta correcto, sino que no se cumple en estos casos.

    HD4870 150w/12v = 12.5A… bueno esto según tus cálculos, pero ojala fuera cierto eso.

    Según las pruebas q he hecho la HD4870 sin Overclock [GPU-750MHz GDDR5-900MHz] corriendo programas de testeo para forzarla a su máximo consume 47A. Pero con Overclock [GPU-800MHz GDDR5-1020MHz], acabo de hacer una prueba para hablar con bases fundadas en la realidad y su consumo es de 50A. En promedio. Es aquí donde la realidad le gana a la fantasía. Según ATI su consumo normal debe oscilar los 30A. De promedio.

    Saca tus propias conclusiones.

    50A. x 12v = 600w con mi fuente de 650w, bueno tu sabes q según los que saben las fuentes [Reales o conmutadas] como las llamamos acá en Colombia tienen la capacidad de resistir dispositivos q sobrepasen su rendimiento con la contraparte de una elevación en la temperatura, eso según los q saben en realidad, no lo digo yo, pero es en eso en lo q me baso, prestarle más atención al Amperaje q a los Watts, pero de todas formas no creo q esta tarjeta llegue por ningún motivo a esos 600w según tu forma de calcular, es obvio q al incrementarse el A. se aumente el W. pero seria un absurdo pensar q llegue hasta tanto y si fuera así ya mi PC se abría quemado aunque las formulas numéricas nunca fallan esto se convierte en una contradicción porque las pruebas tampoco fallan.

    http://img.chw.net/sitio/stories/HD_4870/1214369456_consumo.JPG

    Dime Wargreymon q piensas tu.

    De todos modos me agrada q hallas participado así aprenderemos más los unos de los otros. Si tienes otra cosa q aclarar, por favor estoy dispuesto a poner atención.

    En fin [Lordf], prueba tu fuente de la forma que más te parezca para q compruebes si corre o no a la HD4850.

    Espero seguir viendo opiniones.

    Saludos…

    En serio iconuser, me encanta tu forma de expresarte ;)

    La forma que te he dicho de calcular el amperaje es correcta, al menos es como se ha hecho siempre, ya voy a buscar algun enlace por ahí.

    Es electronica pura y dura, el Amperaje y la potencia final están relacionados, no son dos cosas independientes. Te voy a poner un ejemplo:

    Segun esa etiqueta esa fuente tiene dos railes de 25A cada uno y una potencia total combinada de 600 en la línea de 12v, como ves la casilla en la que pone "600w" ocupa el espacio de las dos casillas pertenecientes a los railes de 12v.

    Si hacemos cuentas, nos damos cuenta de que segun "mi metodo :p", esa fuente en la línea de 12v tendría un amperaje total de 600/12= 50A. En este caso es lo mismo que sumando los dos railes de 25A (probablemente la fuente no tenga dos railes "reales" en su interior, sino uno de 50A, pero el fabricante lo ha puesto como dos de 25A para que no le pillen las normas de seguridad).

    Si lo que tu propones del consumo de la HD4870 fuese cierto, necesitariamos fuentes de más de 800w para un Crossfire de HD4870, que funciona sin problemas en fuentes buenas de 650w ;).

    Si quieres comprobarlo, puedes utilizar este calculador, que además de el consumo del ordenador, te dice los amperajes ;) : http://web.aanet.com.au/SnooP
    /psucalc.php

    Por cierto, como has hecho para calcular los Amperios que utiliza tu gráfica? Con un multimetro?





Has perdido la conexión. Reconectando a Hardlimit.