Comparativa Intel i7 3930K @ 4,8 Vs AMD Fx-8350 @ 4.8 Ghz.
-
Apenas e aterrizado en X79 y ya están hablando de sacar el X89, hay madre que ruina esto de la informática :risitas:
Gracias por el tremendo curro Jotole, desde luego como bien decís, la tarea más sangrante y pendiente de AMD es el multiGPU, las diferencias son apabullantes.Un saludo.
No hay nada seguro aqui segun el roadmap dice que para el Q3 de 2013 sale IB-E,supongo que sacaran otro chipset o quiza no,pero me pareceria raro ya que con IB si han lanzado tambien las Z77 por eso lo normal es que en Cebit se vean ya plaacas X89.
Intel's Ivy Bridge-E set for Q3 2013, Shows Leaked Slide
saludos
-
Gran comparativa Jotole ;), desde luego en la plataforma AM3+ el pcie 3.0 no tiene sentido por que ni siquiera con el pcie 2.0 la plataforma ofrece ancho de banda suficiente en multiGPU como para que las tarjetas rindan bien (o, por lo menos, no el suficiente como para que la comunicación entre GPU y CPU no tenga cuellos de botella), sobretodo tarjetas potentes. El ancho de banda que podría ofrecer un SLI/CF con 2 GPUs pcie 2.0 x16 se ve ahogado por el bus HyperTransport, que está ya bastante desfasado (El último estándar es del 2008, el HT 3.1). Es suficiente para 2 tarjetas pcie 1.0 pero no para dos tarjetas pcie 2.0.
El bus HT puede funcionar con buses de 16 bits o de 32 bits, con 32 bits se consiguen velocidades de transferencia el doble de veloces que con 16 bits, pero AMD, desde los inicios con el HT 1.0 en los Athlon 64 socket 754 implementa la versión de 16 bits, con lo que de entrada está limitando a la mitad la velocidad que permite el bus HT.
Con 16 bits en HT3.0, que es el implementado en la plataforma AM3+, se puede conseguir un ancho de banda unidireccional máximo de 10,4GB/s. El bus PCIE 2.0 funcionando a x16 ofrece un ancho de banda unidireccional de 8GB/s, pero en caso de un SLI/CF x16-x16 ese ancho de banda se vería duplicado a 16GB/s unidireccionales (lógicamente, empleando 2 buses x16 el ancho de banda total se multiplica por 2), sin embargo el bus HT seguiría limitado a 10,4GB/s, de ahí que en esta plataforma las soluciones multiGPU se ahoguen, literalmente, en este modo de funcionamiento, pues las GPUs son capaces de transmitir 16GB/s de datos, pero el bus HT no es capaz de transmitir a más de 10,4GB/s . Si hablaramos de pcie 3.0 la plataforma directamente no sería capaz de ofrecer el ancho de banda necesario para ese bus, una unica tarjeta pcie 3.0 potente dejaría el bus HT sin ancho de banda, pues hablariamos de que una única tarjeta ofrecería un ancho de banda de 16GB/s a x16 (El doble que con pcie 2.0) que sería limitado por los 10,4GB/s del bus HT 3.0. La única solución sería pasar a un bus HT de 32 bits, que también formaría un cuello de botella en caso de SLI/CF con 2 tarjetas pcie 3.0 funcionando a x16-x16.
Como comenta fjavi, el tener el controlador pcie en el chipset en lugar de en la CPU también influye en el rendimiento, siempre será mejor una comunicación lo más directa posible y con menor longitud, y también hay que decir, que los Bulldozers ya sabemos como rinden, si el juego de turno no es capaz de usar sus 8 cores el rendimiento es malo en comparación a las CPUs de Intel de 4 cores, no hablemos ya de SB-E con 6 cores…
-
¡Esta publicación está eliminada! -
Gran comparativa Jotole ;), desde luego en la plataforma AM3+ el pcie 3.0 no tiene sentido por que ni siquiera con el pcie 2.0 la plataforma ofrece ancho de banda suficiente en multiGPU como para que las tarjetas rindan bien (o, por lo menos, no el suficiente como para que la comunicación entre GPU y CPU no tenga cuellos de botella), sobretodo tarjetas potentes. El ancho de banda que podría ofrecer un SLI/CF con 2 GPUs pcie 2.0 x16 se ve ahogado por el bus HyperTransport, que está ya bastante desfasado (El último estándar es del 2008, el HT 3.1). Es suficiente para 2 tarjetas pcie 1.0 pero no para dos tarjetas pcie 2.0.
El bus HT puede funcionar con buses de 16 bits o de 32 bits, con 32 bits se consiguen velocidades de transferencia el doble de veloces que con 16 bits, pero AMD, desde los inicios con el HT 1.0 en los Athlon 64 socket 754 implementa la versión de 16 bits, con lo que de entrada está limitando a la mitad la velocidad que permite el bus HT.
Con 16 bits en HT3.0, que es el implementado en la plataforma AM3+, se puede conseguir un ancho de banda unidireccional máximo de 10,4GB/s. El bus PCIE 2.0 funcionando a x16 ofrece un ancho de banda unidireccional de 8GB/s, pero en caso de un SLI/CF x16-x16 ese ancho de banda se vería duplicado a 16GB/s unidireccionales (lógicamente, empleando 2 buses x16 el ancho de banda total se multiplica por 2), sin embargo el bus HT seguiría limitado a 10,4GB/s, de ahí que en esta plataforma las soluciones multiGPU se ahoguen, literalmente, en este modo de funcionamiento, pues las GPUs son capaces de transmitir 16GB/s de datos, pero el bus HT no es capaz de transmitir a más de 10,4GB/s . Si hablaramos de pcie 3.0 la plataforma directamente no sería capaz de ofrecer el ancho de banda necesario para ese bus, una unica tarjeta pcie 3.0 potente dejaría el bus HT sin ancho de banda, pues hablariamos de que una única tarjeta ofrecería un ancho de banda de 16GB/s a x16 (El doble que con pcie 2.0) que sería limitado por los 10,4GB/s del bus HT 3.0. La única solución sería pasar a un bus HT de 32 bits, que también formaría un cuello de botella en caso de SLI/CF con 2 tarjetas pcie 3.0 funcionando a x16-x16.
Como comenta fjavi, el tener el controlador pcie en el chipset en lugar de en la CPU también influye en el rendimiento, siempre será mejor una comunicación lo más directa posible y con menor longitud, y también hay que decir, que los Bulldozers ya sabemos como rinden, si el juego de turno no es capaz de usar sus 8 cores el rendimiento es malo en comparación a las CPUs de Intel de 4 cores, no hablemos ya de SB-E con 6 cores…
Pero yo no entiendo entonces por que Asus saca alguna placa con pcie3 para AM3+,tampoco por que AMD no cambio con la plataforma FX,tendria que haberse centrado en los procesadores nuevos y cambiar los buses,aunque quiza eso requiera mucho dinero en I+D,es que desde el 754 ya ha pasado mucho tiempo,el anterior CEO de AMD deberia meter la pata bien,para no empezar con los SOC o no sacar algun socket exclusivo para una serie de procesadores,Intel va mas avanzado en proceso y si ademas cambia de socket como de camisa,es normal que se distancie,aunque parece que en otras cosas no van tan mal los AMD.
Yo no se si las K20X aprovecharan un mejor CPU o plataforma supongo que seran como estas Titan,osea que teoricamente si el superordenador ese Titan tuviera Intel en vez de opteron deberia ser mas potente.
Saludos
-
Pero yo no entiendo entonces por que Asus saca alguna placa con pcie3 para AM3+,tampoco por que AMD no cambio con la plataforma FX,tendria que haberse centrado en los procesadores nuevos y cambiar los buses,aunque quiza eso requiera mucho dinero en I+D,es que desde el 754 ya ha pasado mucho tiempo,el anterior CEO de AMD deberia meter la pata bien,para no empezar con los SOC o no sacar algun socket exclusivo para una serie de procesadores,Intel va mas avanzado en proceso y si ademas cambia de socket como de camisa,es normal que se distancie,aunque parece que en otras cosas no van tan mal los AMD.
Yo no se si las K20X aprovecharan un mejor CPU o plataforma supongo que seran como estas Titan,osea que teoricamente si el superordenador ese Titan tuviera Intel en vez de opteron deberia ser mas potente.
Saludos
Lo de Asus es marketing puro y duro, y en ese sentido tampoco va a haber mucha diferencia por que con una GPU no dejas corto el pcie 2.0 aun, así que en ese caso, aunque el pcie 3.0 esté limitado (No se como leches lo habrá implementado Asus, pero será a lo guarro, por que ningún chipset de AMD soporta pcie 3.0) no creo que haya pérdida de rendimiento en monoGPU, de momento.
-
Lo de Asus es marketing puro y duro, y en ese sentido tampoco va a haber mucha diferencia por que con una GPU no dejas corto el pcie 2.0 aun, así que en ese caso, aunque el pcie 3.0 esté limitado (No se como leches lo habrá implementado Asus, pero será a lo guarro, por que ningún chipset de AMD soporta pcie 3.0) no creo que haya pérdida de rendimiento en monoGPU, de momento.
Parece ser que le ha metido un PLX,pero no deja de ser un parche,lo suyo es que la arquitectura este preparada para Pcie3 y si se da soporte SLI CF de 2 o mas tarjetas sea por que puede bien con ellas.
Noticias3D - ASUS muestra la primera placa para AMD con PCI-Express 3.0
por lo que se esta viendo con la titan a falta de verla aqui,dos o tres tarjetas van a dejar en bragas hasta a las plataformas Intel mas modernas,no se que ocurrira con haswell pero tienen pinta de pedir mucho equipo esas Titan,aunque supongo que quien tenga dos o tres tendra un monitor minimo de 1440p,tienen pinta de que a 1080p eso va a necesitar un peazo equipo de cuidado.
saludos
-
Pues teniendo en cuenta que los haswell en principio solo van a tener un máximo de 4 núcleos no creo que vayan a marcar mucho la diferencia. Quizás cuando salgan los Haswell de 6 o 8 núcleos en el socket 2011…
-
No hay nada seguro aqui segun el roadmap dice que para el Q3 de 2013 sale IB-E,supongo que sacaran otro chipset o quiza no,pero me pareceria raro ya que con IB si han lanzado tambien las Z77 por eso lo normal es que en Cebit se vean ya plaacas X89.
Intel's Ivy Bridge-E set for Q3 2013, Shows Leaked Slide
saludos
Sí esos rumores cada vez son mas oidos, no obstante no creo que la diferencia sea como para cambiar de plataforma. Aún habiendo entrado Titan en la palestra, no creo que estos SB-E, no le saquen toda la chicha a esas graficas, cierto es que para multi gpu de esas bestias haya que sacarles todos los Mhz que podamos a nuestro procesador, pero eso no son configuraciones normales.
Salu2…
Gran comparativa Jotole ;), desde luego en la plataforma AM3+ el pcie 3.0 no tiene sentido por que ni siquiera con el pcie 2.0 la plataforma ofrece ancho de banda suficiente en multiGPU como para que las tarjetas rindan bien (o, por lo menos, no el suficiente como para que la comunicación entre GPU y CPU no tenga cuellos de botella), sobretodo tarjetas potentes. El ancho de banda que podría ofrecer un SLI/CF con 2 GPUs pcie 2.0 x16 se ve ahogado por el bus HyperTransport, que está ya bastante desfasado (El último estándar es del 2008, el HT 3.1). Es suficiente para 2 tarjetas pcie 1.0 pero no para dos tarjetas pcie 2.0.
El bus HT puede funcionar con buses de 16 bits o de 32 bits, con 32 bits se consiguen velocidades de transferencia el doble de veloces que con 16 bits, pero AMD, desde los inicios con el HT 1.0 en los Athlon 64 socket 754 implementa la versión de 16 bits, con lo que de entrada está limitando a la mitad la velocidad que permite el bus HT.
Con 16 bits en HT3.0, que es el implementado en la plataforma AM3+, se puede conseguir un ancho de banda unidireccional máximo de 10,4GB/s. El bus PCIE 2.0 funcionando a x16 ofrece un ancho de banda unidireccional de 8GB/s, pero en caso de un SLI/CF x16-x16 ese ancho de banda se vería duplicado a 16GB/s unidireccionales (lógicamente, empleando 2 buses x16 el ancho de banda total se multiplica por 2), sin embargo el bus HT seguiría limitado a 10,4GB/s, de ahí que en esta plataforma las soluciones multiGPU se ahoguen, literalmente, en este modo de funcionamiento, pues las GPUs son capaces de transmitir 16GB/s de datos, pero el bus HT no es capaz de transmitir a más de 10,4GB/s . Si hablaramos de pcie 3.0 la plataforma directamente no sería capaz de ofrecer el ancho de banda necesario para ese bus, una unica tarjeta pcie 3.0 potente dejaría el bus HT sin ancho de banda, pues hablariamos de que una única tarjeta ofrecería un ancho de banda de 16GB/s a x16 (El doble que con pcie 2.0) que sería limitado por los 10,4GB/s del bus HT 3.0. La única solución sería pasar a un bus HT de 32 bits, que también formaría un cuello de botella en caso de SLI/CF con 2 tarjetas pcie 3.0 funcionando a x16-x16.
Como comenta fjavi, el tener el controlador pcie en el chipset en lugar de en la CPU también influye en el rendimiento, siempre será mejor una comunicación lo más directa posible y con menor longitud, y también hay que decir, que los Bulldozers ya sabemos como rinden, si el juego de turno no es capaz de usar sus 8 cores el rendimiento es malo en comparación a las CPUs de Intel de 4 cores, no hablemos ya de SB-E con 6 cores…
Muchas gracias Wargreymon, es un placer enseñar graficamente, todo lo que vemos en casa…Así cada compañero sabe de primera mano a que se enfrenta. Es verdad que AMD, ha cogido un camino que como no lo cambie, va a dejar a Intel sin competencia. Espero que pronto encuentren de nuevo el camino a seguir y le planten cara como hace años.
Si no, me veo, como en el tema de las gpu´s con Nvidia, el que quiera rendimiento puro y duro va a tener que soltar una pasta.
Salu2...
-
Pues teniendo en cuenta que los haswell en principio solo van a tener un máximo de 4 núcleos no creo que vayan a marcar mucho la diferencia. Quizás cuando salgan los Haswell de 6 o 8 núcleos en el socket 2011…
Por el momento parece que 4 o 6 nucleos no importan casi,ya veremos con las consolas nuevas,pues tendran mas nucleos pero poco potentes,por ahora parece que importa mas la plataforma,osea cada vez meten mejores controladores ya sea de memoria,Pcie,no es que se avance mucho pero algo se nota,Ivy tira bien lo que tiene la desventaja con SB del OC,los SB con pcie3 serian mejores solo por el OC,el socket 2011 es espectacular,pero yo lo veo muy verde,parece mas para servidores y cosas de esas que para gama entusiasta de escritorio y los SB o IB parecen mas de portatil,por lo menos los SB salieron buenos,por eso creo que Intel debe sacar algo que convenza por que algunos fabricantes de placas no estan contentos con los RMA del 2011 y las ventas de Z77 aunque sea un buen chipset.
Aunque no espero mucho,ya quiero cambiar pero a algo que me convenza y si Haswell no lo hace pues tocara esperar a IB-E.
saludos
Sí esos rumores cada vez son mas oidos, no obstante no creo que la diferencia sea como para cambiar de plataforma. Aún habiendo entrado Titan en la palestra, no creo que estos SB-E, no le saquen toda la chicha a esas graficas, cierto es que para multi gpu de esas bestias haya que sacarles todos los Mhz que podamos a nuestro procesador, pero eso no son configuraciones normales.
Salu2…
Salu2...
Claro Jotole a vosotros no os compensara cambiar,ya que teneis una plataforma buena,a mi si que hace la tira que queria cambiar la x58 y al final sigo aguantando por que no me convencen del todo las ultimas plataformas,por eso segun sean haswell pues posiblemente cambie y sino pues IB-E,ultimamente como tampoco meto graficas mas potentes pues la X58 me sirve perfectamente,al final tanto el 1366 como las 480 me estan durando mas que ningun otro socket o graficas,me han salido rentables.
Un saludo
-
Excelente review Jotole,gracias!
Yo pensaba que en juego no habia tanta diferencia..pero veo que me equivoco..Ese i7 tiene 6 nucleos/12 hilos no?Entonces es normal que rinda el doble en benchs como sandra etc,ya que hacen uso de todos los nucleos.Pero en juegos,me sorprendio mucho..A ver si sacan los HASWELL,y doy puerta a mi i7 920 xD.
Que rinde mas en estos momentos,un i7 920 a 4ghz,o un Fx 8350 a 4,8ghz?
Un saludo!
-
Excelente review Jotole,gracias!
Yo pensaba que en juego no habia tanta diferencia..pero veo que me equivoco..Ese i7 tiene 6 nucleos/12 hilos no?Entonces es normal que rinda el doble en benchs como sandra etc,ya que hacen uso de todos los nucleos.Pero en juegos,me sorprendio mucho..A ver si sacan los HASWELL,y doy puerta a mi i7 920 xD.
Que rinde mas en estos momentos,un i7 920 a 4ghz,o un Fx 8350 a 4,8ghz?
Un saludo!
Gracias Piratilla,
Que rinda mas el 3930 en pruebas de procesador aparte de por sus mayor numero de nucleos, es por su mayor ipc.
Esa pregunta es dificil de responder, bajo mi punto de vista y mi experiencia te díria que un 920, no por tanto como un 3930, pero algo si se notaría.
En pruebas que hice al tener las 2 plataformas, por poner un ejemplo, en Metro 2033 a 1920 x 1080 saca mas fps el 920, pero lo tenía a 4,3. Estan pasadas con un Sli de 670.
Salu2…
-
Salu2…
Casi na¡¡¡¡ :wall::wall::wall:
AMD ponte las pilas y optimiza el ipc de tus micros en vez de meter cores.
-
Casi na¡¡¡¡ :wall::wall::wall:
AMD ponte las pilas y optimiza el ipc de tus micros en vez de meter cores.
AMD con los FX debio sacar un socket solo para ellos,no dar retrocompatibilidad,meter los controladores sata y pcie al CPU,mejorar el hiper transport que ya tiene tiempo,tambien mejorar algo el ancho de banda de memoria por que Intel le saca mucho y eso lo solia hacer mejor AMD.
Aunque parece que el ingeniero de memoria se fue a Intel,pero deberia haber hecho una plataforma nueva,por que sino Intel tiene todas las ventajas,menor proceso de fabricacion,cambia de socket como de camisa y ademas el tic toc,por eso creo que AMD debia haber abandonado la retrocompatibilidad por que eso le va lastrando,no se puede avanzar tanto dando retrocompatibilidad.
saludos
-
AMD con los FX debio sacar un socket solo para ellos,no dar retrocompatibilidad,meter los controladores sata y pcie al CPU,mejorar el hiper transport que ya tiene tiempo,tambien mejorar algo el ancho de banda de memoria por que Intel le saca mucho y eso lo solia hacer mejor AMD.
Aunque parece que el ingeniero de memoria se fue a Intel,pero deberia haber hecho una plataforma nueva,por que sino Intel tiene todas las ventajas,menor proceso de fabricacion,cambia de socket como de camisa y ademas el tic toc,por eso creo que AMD debia haber abandonado la retrocompatibilidad por que eso le va lastrando,no se puede avanzar tanto dando retrocompatibilidad.
saludos
Yo estoy completamente en contra de hacer retrocompatible con los socket, me parece bien lo que hace intel, yo prefiero ganar rendimiento a costa de cambiar de socket a quecarme estancado como lo esta haciendo AMD.
-
Yo estoy completamente en contra de hacer retrocompatible con los socket, me parece bien lo que hace intel, yo prefiero ganar rendimiento a costa de cambiar de socket a quecarme estancado como lo esta haciendo AMD.
hombre tambien hay que ver que Intel tiene mucho mas $$$$$$,entonces tiene un departamento de I+D muy superior,los AMD K8 eran mejor que los intel,AMD metio antes controladoras de memoria al cpu y un bus mas avanzado que el fsb de Intel,lo que ocurre que algun CEO no tomo buenas decisiones,se retrasaron con phenom,luego lo de BD los debio lastrar mas,incluso ese CEO anterior que dejo de lado el desarrollo de ARM,que era algo que les podia haber venido muy bien viendo el panorama economico actual.
Por eso quiza los recursos economicos no les permitian hacer cosas importantes.
Quiza tambien la compra de ATI les haya supuesto un gran esfuerzo economico que al final se les ha ido juntando todo.
saludos
-
Si es que estos SB-E son unas bestias, pasé del 2600k al 3930k hace dos meses y no puedo estar más contento!
-
Casi na¡¡¡¡ :wall::wall::wall:
AMD ponte las pilas y optimiza el ipc de tus micros en vez de meter cores.
Tal vez han visto que no podían competir por esa vía y han tenido que buscar otro mercado rezando por la vida más allá del gaming entusiasta.
Yo estoy completamente en contra de hacer retrocompatible con los socket, me parece bien lo que hace intel, yo prefiero ganar rendimiento a costa de cambiar de socket a quecarme estancado como lo esta haciendo AMD.
Estoy de acuerdo en buena medida, más les vale cortar por lo sano y dar un buen salto con la próxima apuesta <:(
-
hombre tambien hay que ver que Intel tiene mucho mas $$$$$$,entonces tiene un departamento de I+D muy superior,los AMD K8 eran mejor que los intel,AMD metio antes controladoras de memoria al cpu y un bus mas avanzado que el fsb de Intel,lo que ocurre que algun CEO no tomo buenas decisiones,se retrasaaron con phenom,luego lo de BD los debio lastrar mas,incluso ese CEO anterior que dejo de lado el desarrollo de ARM,que era algo que les podia haber venido muy bien viendo el panorama economico actual.
Por eso quiza los recursos economicos no les permitian hacer cosas importantes.
Quiza tambien la compra de ATI les haya supuesto un gran esfuerzo economico que al final se les ha ido juntando todo.
saludos
yo tambien creo que ese es su problema tanto en las CPUS como en las GPUS
e INTEL tiene un mercado fijo que le garantiza unos muy grandes ingresos ( empresas y algo mas )saludos
-
yo tambien creo que ese es su problema tanto en las CPUS como en las GPUS
e INTEL tiene un mercado fijo que le garantiza unos muy grandes ingresos ( empresas y algo mas )saludos
Problemas economicos si tienen pero creo que en GPU no lo tenian tan mal,hasta ahora de una u otra forma han competido,lo malo puede ser si se retrasan,aunque creo que nvidia tampoco quiere apretar,le interesa mas vender gamas baratas como gama alta y sacar una exclusiva para unos pocos que no influira mucho en el mercado.
Intel seguia vendiendo mas con los P4 que eran peores que los AMD,aunque es verdad que en esa epoca fue cuando AMD consiguio la mayor cuota de ventas de CPU,si se hubiera mantenido otra generacion mas seguro le hubiera recortado mas cuota de mercado,se hubiera acercado mas a Intel,o por lo menos haberse alternado,pero con BD lo tenian muy dificil ya que AMD tenia que fabricar en 32nm mientras Intel ya tenia casi los 22nm,asi es muy dificil competir.
saludos
-
Jotole, le podrías pasar el Crysis 3?? Haber si van tan bien como dicen el FX.