Comparativa Intel i7 3930K @ 4,8 Vs AMD Fx-8350 @ 4.8 Ghz.


  • 0

    Muy buenas, como buen amante del hard, me gusta probar todos los componentes que puedo, para valorar por mi mismo todo aquello que leemos a diario sobre las piezas de nuestros equipos, y porque no decirlo, es un entretenimiento mas aparte de las horas que dedicamos a jugar ;). Así que saco unas horas de donde puedo y me gusta mostrarlo, para todo aquel que le sirva de algo.

    He tenido practicamente todas las plataformas de pc que han existido, (eso quiere decir que soy muy viejo…......xD), pero hacia mucho tiempo que no tocaba un AMD, creo recordar que el último fué un Athlon 64 5200 x2, ya ha llovido desde entonces..........xD.

    En esta ocasión he tenido contacto con un AMD de última generación un Fx-8350. Lo he enfrentado a mi plataforma principal un i7 3930k en una Asus Rampage IV Extreme, y estos son los resultados....

    Equipo Intel

    i7 3930K @ 4.8 Ghz.
    Asus Rampage IV Extreme
    16 GB Corsair Dominator Platinum @ 2400 CL9
    Raid 0 Corsair Force GT 120GB (240 GB)
    Sli Gigabyte GTX 670 OC.

    Equipo AMD

    AMD Fx-8350 @ 4.8 Ghz
    Asus Sabertooth 990FX R2.O
    16 GB Corsair Dominator Platinum @ 2400 CL9
    Raid 0 Corsair Force GT 120GB (240 GB)
    Sli Gigabyte GTX 670 OC.

    Pruebas:

    Está claro que quien busque el maximo rendimiento tiene su sitio en Intel, tambien habría que decir que el precio del 3930 es mas del doble del Fx, siendo tambien mucho mayor el rendimiento del procesador.

    En juegos, obviamente el rendimiento no es el doble, pero si que se nota como las tarjetas graficas dan mucho mas de sí en la plataforma Intel.

    Estos resultados mas o menos es los que nos esperabamos, pero así los sabemos a ciencia cierta ;) .

    He probado muchos juegos mas, aunque no esten en la comparativa, y lo que mas me ha sorprendido es que en todos ellos suben los minimos, casi al doble, evitando los bajones de fps, tan molestos a la hora de jugar.

    Un Saludo…



  • 1

    Yo no entiendo como AMD no introdujo el controlador Pcie al CPU con los FX,creo que a dado demasiado tiempo retrocompatibilidad,eso puede ser bueno para quien ya tenga esa plataforma,pero como Intel cambia de socket muchisimo mas,al final se queda atras AMD pues Intel hace una plataforma pensando solo en una serie de procesadores,mientras que AMD lo hacia pensando tambien en procesadores mas antiguos.

    Intel con el socket 775 se quedo tambien un poco atascado y fue al meter el tic toc ese cuando empezo a avanzar y nuestros bolsillos a temblar,de todas formas para gente normal que no mete mas de una grafica y tampoco de las mas potentes un equipo le puede durar mucho,quien se comprara un 2500K tendra equipo para mucho tiempo al igual que los Q6600 han durado mucho,donde flaquea mas es con tres y 4 tarjetas y un 2500K es bastante valido para tres tarjetas.

    AMD con los K7 y K8 fue mejor que Intel,pero despues empezo a ir perdiendo,tambien por que Intel va mas avanzado en proceso de fabricacion,una lastima que no haya mas competencia,aunque AMD flojea mas en equipos para juegos en otras cosas no tanto.

    La prueba de memoria del sisoft sandra es ue es mucha la diferencia,como se nota que Intel contrato al ingeniero que tenia AMD,con los K8 era al contrario los AMD solian manejar mejor la memoria.

    buena comparativa.

    saludos



  • 2

    Gracias por el aporte ;D



  • 3

    Y has probado con las 3 gráficas para ver la diferencia?Aunque supongo que la Placa de AMD no podrá hacerlo,y si lo hace,será aún mayor el cuello de botella que provoca..

    Un saludo y gracias por el curro..



  • 4

    @fjavi:

    Yo no entiendo como AMD no introdujo el controlador Pcie al CPU con los FX,creo que a dado demasiado tiempo retrocompatibilidad,eso puede ser bueno para quien ya tenga esa plataforma,pero como Intel cambia de socket muchisimo mas,al final se queda atras AMD pues Intel hace una plataforma pensando solo en una serie de procesadores,mientras que AMD lo hacia pensando tambien en procesadores mas antiguos.

    Intel con el socket 775 se quedo tambien un poco atascado y fue al meter el tic toc ese cuando empezo a avanzar y nuestros bolsillos a temblar,de todas formas para gente normal que no mete mas de una grafica y tampoco de las mas potentes un equipo le puede durar mucho,quien se comprara un 2500K tendra equipo para mucho tiempo al igual que los Q6600 han durado mucho,donde flaquea mas es con tres y 4 tarjetas y un 2500K es bastante valido para tres tarjetas.

    AMD con los K7 y K8 fue mejor que Intel,pero despues empezo a ir perdiendo,tambien por que Intel va mas avanzado en proceso de fabricacion,una lastima que no haya mas competencia,aunque AMD flojea mas en equipos para juegos en otras cosas no tanto.

    La prueba de memoria del sisoft sandra es ue es mucha la diferencia,como se nota que Intel contrato al ingeniero que tenia AMD,con los K8 era al contrario los AMD solian manejar mejor la memoria.

    buena comparativa.

    saludos

    Gracias fjavi, es lo que le veo a la plataforma de AMD, no acaba de "despegar", lo de la retrocompatibilidad, esta muy bien para que sus usuarios mantengan la paca base y la actualización de plataforma no salga tan cara. Pero es un lastre a la larga. Además el camino que han seguido hacia un mayor numero de cores, creo que no es el mas adecuado, con el panorama actual de aplicaciones que tenemos, que rara es la que aprovecha bien un Quad. Afortunadamente cada vez mas aplicaciones aprovechan los hilos de nuestros procesadores.

    El renidmiento puro de procesador, como puede ser un sandra, o render de imagenes, el Intel le saca mucha delantera, debido a lo que tan bien has explicado ;).

    Un Saludo…
    @Praimus:

    Gracias por el aporte ;D

    Gracias paisano ;), de vez en cuando nos gusta meternos en estos "fregaos"…........ :).

    Un Abrazo.

    @ELP3:

    Y has probado con las 3 gráficas para ver la diferencia?Aunque supongo que la Placa de AMD no podrá hacerlo,y si lo hace,será aún mayor el cuello de botella que provoca..

    Un saludo y gracias por el curro..

    No hay de que ELP3, sí, la placa si permite 3 way a x16/x8/x8 exactamente, pero el layout no me permtía poner las 3 GTX 670 OC. Ahora mismo no recuerdo exactamente porque, pero la intención era pasarla con el 3 way.

    Aunque como bien dices, ya con 2, se nota mucha diferencia con el intel, con tres sería aún mas grande. No llegué a jugar con el AMD, un tiempo prolongado. Como para tener una idea del rendimiento real en juegos.

    Un Saludo.

    P.D. Gracias a todos…



  • 5

    gracias por la informacion, aunque sin probarlos estaba claro que la diferencia seria bastante
    pero el AMD cuesta menos de la mitad que el INTEL, con lo que no esta mal

    saludos



  • 6

    Jotole en aplicaciones multihilo no esta tan mal AMD,donde falla mas es al meter graficas potentes en SLI o CF,en servidores y aplicaciones multihilo no salen mal parados, es mas en Juegos donde pierden.

    parece que Asus esta mostrando una placa con plx y 2 Pcie 3 para AMD no se que tal ira,tiene otros dos Pcie2
    pero funcionan dos en Pcie3 que son las que usa el PLX,aqui una noticia

    CES 2013: ASUS lleva soporte PCIe 3.0 a procesadores AM3+

    Tambien se ve ya un IB-E, ES pero que lo mas facil es que saquen un X89,para esos procesadores.
    http://www.hardwaremx.com/news/ya-se-oferta-en-ebay-un-supuesto-procesador-ivy-bridge-eep-es/

    saludos



  • 7

    Apenas e aterrizado en X79 y ya están hablando de sacar el X89, hay madre que ruina esto de la informática :risitas:
    Gracias por el tremendo curro Jotole, desde luego como bien decís, la tarea más sangrante y pendiente de AMD es el multiGPU, las diferencias son apabullantes.

    Un saludo.



  • 8

    @Alcor:

    Apenas e aterrizado en X79 y ya están hablando de sacar el X89, hay madre que ruina esto de la informática :risitas:
    Gracias por el tremendo curro Jotole, desde luego como bien decís, la tarea más sangrante y pendiente de AMD es el multiGPU, las diferencias son apabullantes.

    Un saludo.

    Dudo que merezca la pena cambiar de X79 a X89, ¿acaso el que tiene un 2500K le compensa cambiarlo por un 3570k?

    Igual me equivoco, pero entre que Intel no tiene competencia y que por norma general de tic a toc no suele mejorar mucho.. no esperaría nada llamativo.

    Un saludo.



  • 9

    @Praimus:

    Dudo que merezca la pena cambiar de X79 a X89, ¿acaso el que tiene un 2500K le compensa cambiarlo por un 3570k?

    +1

    Saludos



  • 10
    ¡Esta publicación está eliminada!


  • 11


  • 12

    @ferelxyx:

    gracias por la informacion, aunque sin probarlos estaba claro que la diferencia seria bastante
    pero el AMD cuesta menos de la mitad que el INTEL, con lo que no esta mal

    saludos

    No hay de que para eso son las pruebas para compartirlas. ;).

    Hay llevas razón, si nos vamos a la relación rendimiento/precio, es verdad que estas pagando por lo que obtienes, en eso AMD hace muy bien siempre sus deberes.

    Ya sabemos desde hace tiempo que el que quiere lo maximo se tiene que rascar el bolsillo, y muchas veces el rendimiento obtenido no es acorde a lo que pagamos.

    Salu2…

    @fjavi:

    Jotole en aplicaciones multihilo no esta tan mal AMD,donde falla mas es al meter graficas potentes en SLI o CF,en servidores y aplicaciones multihilo no salen mal parados, es mas en Juegos donde pierden.

    parece que Asus esta mostrando una placa con plx y 2 Pcie 3 para AMD no se que tal ira,tiene otros dos Pcie2
    pero funcionan dos en Pcie3 que son las que usa el PLX,aqui una noticia

    CES 2013: ASUS lleva soporte PCIe 3.0 a procesadores AM3+

    Tambien se ve ya un IB-E, ES pero que lo mas facil es que saquen un X89,para esos procesadores.
    Ya se oferta en Ebay un supuesto procesador Ivy Bridge-E/EP ES

    saludos

    Yo no lo veo así en aplicaciones multihilos, al menos en los bench que he sacado, Intel practicamente le dobla el rendimiento.

    Pero claro eso se sabe a ciencia cierta trabajando a diario con ellas. Yo solo he apsado unos bench, no trabajo con esas aplicaciones…

    Salu2...

    @Alcor:

    Apenas e aterrizado en X79 y ya están hablando de sacar el X89, hay madre que ruina esto de la informática :risitas:
    Gracias por el tremendo curro Jotole, desde luego como bien decís, la tarea más sangrante y pendiente de AMD es el multiGPU, las diferencias son apabullantes.

    Un saludo.

    @Praimus:

    Dudo que merezca la pena cambiar de X79 a X89, ¿acaso el que tiene un 2500K le compensa cambiarlo por un 3570k?

    Igual me equivoco, pero entre que Intel no tiene competencia y que por norma general de tic a toc no suele mejorar mucho.. no esperaría nada llamativo.

    Un saludo.

    Opino como vosotros, no creo que la ganacia de los nuevos procesadores, sea como cambiar una plataforma, y mas viendo la potencia que tienen estos 3930 a 5 Ghz. ;).

    Siento no haberos contestado antes, pero estoy enfrascado en otro proyecto que pronto podreis ver en el hilo de mod´s :) .

    Un saludo a todos…...



  • 13
    ¡Esta publicación está eliminada!


  • 14

    @Alcor:

    Apenas e aterrizado en X79 y ya están hablando de sacar el X89, hay madre que ruina esto de la informática :risitas:
    Gracias por el tremendo curro Jotole, desde luego como bien decís, la tarea más sangrante y pendiente de AMD es el multiGPU, las diferencias son apabullantes.

    Un saludo.

    No hay nada seguro aqui segun el roadmap dice que para el Q3 de 2013 sale IB-E,supongo que sacaran otro chipset o quiza no,pero me pareceria raro ya que con IB si han lanzado tambien las Z77 por eso lo normal es que en Cebit se vean ya plaacas X89.

    Intel's Ivy Bridge-E set for Q3 2013, Shows Leaked Slide

    saludos



  • 15

    Gran comparativa Jotole ;), desde luego en la plataforma AM3+ el pcie 3.0 no tiene sentido por que ni siquiera con el pcie 2.0 la plataforma ofrece ancho de banda suficiente en multiGPU como para que las tarjetas rindan bien (o, por lo menos, no el suficiente como para que la comunicación entre GPU y CPU no tenga cuellos de botella), sobretodo tarjetas potentes. El ancho de banda que podría ofrecer un SLI/CF con 2 GPUs pcie 2.0 x16 se ve ahogado por el bus HyperTransport, que está ya bastante desfasado (El último estándar es del 2008, el HT 3.1). Es suficiente para 2 tarjetas pcie 1.0 pero no para dos tarjetas pcie 2.0.

    El bus HT puede funcionar con buses de 16 bits o de 32 bits, con 32 bits se consiguen velocidades de transferencia el doble de veloces que con 16 bits, pero AMD, desde los inicios con el HT 1.0 en los Athlon 64 socket 754 implementa la versión de 16 bits, con lo que de entrada está limitando a la mitad la velocidad que permite el bus HT.

    Con 16 bits en HT3.0, que es el implementado en la plataforma AM3+, se puede conseguir un ancho de banda unidireccional máximo de 10,4GB/s. El bus PCIE 2.0 funcionando a x16 ofrece un ancho de banda unidireccional de 8GB/s, pero en caso de un SLI/CF x16-x16 ese ancho de banda se vería duplicado a 16GB/s unidireccionales (lógicamente, empleando 2 buses x16 el ancho de banda total se multiplica por 2), sin embargo el bus HT seguiría limitado a 10,4GB/s, de ahí que en esta plataforma las soluciones multiGPU se ahoguen, literalmente, en este modo de funcionamiento, pues las GPUs son capaces de transmitir 16GB/s de datos, pero el bus HT no es capaz de transmitir a más de 10,4GB/s . Si hablaramos de pcie 3.0 la plataforma directamente no sería capaz de ofrecer el ancho de banda necesario para ese bus, una unica tarjeta pcie 3.0 potente dejaría el bus HT sin ancho de banda, pues hablariamos de que una única tarjeta ofrecería un ancho de banda de 16GB/s a x16 (El doble que con pcie 2.0) que sería limitado por los 10,4GB/s del bus HT 3.0. La única solución sería pasar a un bus HT de 32 bits, que también formaría un cuello de botella en caso de SLI/CF con 2 tarjetas pcie 3.0 funcionando a x16-x16.

    Como comenta fjavi, el tener el controlador pcie en el chipset en lugar de en la CPU también influye en el rendimiento, siempre será mejor una comunicación lo más directa posible y con menor longitud, y también hay que decir, que los Bulldozers ya sabemos como rinden, si el juego de turno no es capaz de usar sus 8 cores el rendimiento es malo en comparación a las CPUs de Intel de 4 cores, no hablemos ya de SB-E con 6 cores…



  • 16
    ¡Esta publicación está eliminada!


  • 17

    @Wargreymon:

    Gran comparativa Jotole ;), desde luego en la plataforma AM3+ el pcie 3.0 no tiene sentido por que ni siquiera con el pcie 2.0 la plataforma ofrece ancho de banda suficiente en multiGPU como para que las tarjetas rindan bien (o, por lo menos, no el suficiente como para que la comunicación entre GPU y CPU no tenga cuellos de botella), sobretodo tarjetas potentes. El ancho de banda que podría ofrecer un SLI/CF con 2 GPUs pcie 2.0 x16 se ve ahogado por el bus HyperTransport, que está ya bastante desfasado (El último estándar es del 2008, el HT 3.1). Es suficiente para 2 tarjetas pcie 1.0 pero no para dos tarjetas pcie 2.0.

    El bus HT puede funcionar con buses de 16 bits o de 32 bits, con 32 bits se consiguen velocidades de transferencia el doble de veloces que con 16 bits, pero AMD, desde los inicios con el HT 1.0 en los Athlon 64 socket 754 implementa la versión de 16 bits, con lo que de entrada está limitando a la mitad la velocidad que permite el bus HT.

    Con 16 bits en HT3.0, que es el implementado en la plataforma AM3+, se puede conseguir un ancho de banda unidireccional máximo de 10,4GB/s. El bus PCIE 2.0 funcionando a x16 ofrece un ancho de banda unidireccional de 8GB/s, pero en caso de un SLI/CF x16-x16 ese ancho de banda se vería duplicado a 16GB/s unidireccionales (lógicamente, empleando 2 buses x16 el ancho de banda total se multiplica por 2), sin embargo el bus HT seguiría limitado a 10,4GB/s, de ahí que en esta plataforma las soluciones multiGPU se ahoguen, literalmente, en este modo de funcionamiento, pues las GPUs son capaces de transmitir 16GB/s de datos, pero el bus HT no es capaz de transmitir a más de 10,4GB/s . Si hablaramos de pcie 3.0 la plataforma directamente no sería capaz de ofrecer el ancho de banda necesario para ese bus, una unica tarjeta pcie 3.0 potente dejaría el bus HT sin ancho de banda, pues hablariamos de que una única tarjeta ofrecería un ancho de banda de 16GB/s a x16 (El doble que con pcie 2.0) que sería limitado por los 10,4GB/s del bus HT 3.0. La única solución sería pasar a un bus HT de 32 bits, que también formaría un cuello de botella en caso de SLI/CF con 2 tarjetas pcie 3.0 funcionando a x16-x16.

    Como comenta fjavi, el tener el controlador pcie en el chipset en lugar de en la CPU también influye en el rendimiento, siempre será mejor una comunicación lo más directa posible y con menor longitud, y también hay que decir, que los Bulldozers ya sabemos como rinden, si el juego de turno no es capaz de usar sus 8 cores el rendimiento es malo en comparación a las CPUs de Intel de 4 cores, no hablemos ya de SB-E con 6 cores…

    Pero yo no entiendo entonces por que Asus saca alguna placa con pcie3 para AM3+,tampoco por que AMD no cambio con la plataforma FX,tendria que haberse centrado en los procesadores nuevos y cambiar los buses,aunque quiza eso requiera mucho dinero en I+D,es que desde el 754 ya ha pasado mucho tiempo,el anterior CEO de AMD deberia meter la pata bien,para no empezar con los SOC o no sacar algun socket exclusivo para una serie de procesadores,Intel va mas avanzado en proceso y si ademas cambia de socket como de camisa,es normal que se distancie,aunque parece que en otras cosas no van tan mal los AMD.

    Yo no se si las K20X aprovecharan un mejor CPU o plataforma supongo que seran como estas Titan,osea que teoricamente si el superordenador ese Titan tuviera Intel en vez de opteron deberia ser mas potente.

    Saludos



  • 18

    @fjavi:

    Pero yo no entiendo entonces por que Asus saca alguna placa con pcie3 para AM3+,tampoco por que AMD no cambio con la plataforma FX,tendria que haberse centrado en los procesadores nuevos y cambiar los buses,aunque quiza eso requiera mucho dinero en I+D,es que desde el 754 ya ha pasado mucho tiempo,el anterior CEO de AMD deberia meter la pata bien,para no empezar con los SOC o no sacar algun socket exclusivo para una serie de procesadores,Intel va mas avanzado en proceso y si ademas cambia de socket como de camisa,es normal que se distancie,aunque parece que en otras cosas no van tan mal los AMD.

    Yo no se si las K20X aprovecharan un mejor CPU o plataforma supongo que seran como estas Titan,osea que teoricamente si el superordenador ese Titan tuviera Intel en vez de opteron deberia ser mas potente.

    Saludos

    Lo de Asus es marketing puro y duro, y en ese sentido tampoco va a haber mucha diferencia por que con una GPU no dejas corto el pcie 2.0 aun, así que en ese caso, aunque el pcie 3.0 esté limitado (No se como leches lo habrá implementado Asus, pero será a lo guarro, por que ningún chipset de AMD soporta pcie 3.0) no creo que haya pérdida de rendimiento en monoGPU, de momento.



  • 19

    @Wargreymon:

    Lo de Asus es marketing puro y duro, y en ese sentido tampoco va a haber mucha diferencia por que con una GPU no dejas corto el pcie 2.0 aun, así que en ese caso, aunque el pcie 3.0 esté limitado (No se como leches lo habrá implementado Asus, pero será a lo guarro, por que ningún chipset de AMD soporta pcie 3.0) no creo que haya pérdida de rendimiento en monoGPU, de momento.

    Parece ser que le ha metido un PLX,pero no deja de ser un parche,lo suyo es que la arquitectura este preparada para Pcie3 y si se da soporte SLI CF de 2 o mas tarjetas sea por que puede bien con ellas.

    Noticias3D - ASUS muestra la primera placa para AMD con PCI-Express 3.0

    por lo que se esta viendo con la titan a falta de verla aqui,dos o tres tarjetas van a dejar en bragas hasta a las plataformas Intel mas modernas,no se que ocurrira con haswell pero tienen pinta de pedir mucho equipo esas Titan,aunque supongo que quien tenga dos o tres tendra un monitor minimo de 1440p,tienen pinta de que a 1080p eso va a necesitar un peazo equipo de cuidado.

    saludos





Has perdido la conexión. Reconectando a Hardlimit.