Comparativa Intel i7 3930K @ 4,8 Vs AMD Fx-8350 @ 4.8 Ghz.
-
Lo de Asus es marketing puro y duro, y en ese sentido tampoco va a haber mucha diferencia por que con una GPU no dejas corto el pcie 2.0 aun, así que en ese caso, aunque el pcie 3.0 esté limitado (No se como leches lo habrá implementado Asus, pero será a lo guarro, por que ningún chipset de AMD soporta pcie 3.0) no creo que haya pérdida de rendimiento en monoGPU, de momento.
Parece ser que le ha metido un PLX,pero no deja de ser un parche,lo suyo es que la arquitectura este preparada para Pcie3 y si se da soporte SLI CF de 2 o mas tarjetas sea por que puede bien con ellas.
Noticias3D - ASUS muestra la primera placa para AMD con PCI-Express 3.0
por lo que se esta viendo con la titan a falta de verla aqui,dos o tres tarjetas van a dejar en bragas hasta a las plataformas Intel mas modernas,no se que ocurrira con haswell pero tienen pinta de pedir mucho equipo esas Titan,aunque supongo que quien tenga dos o tres tendra un monitor minimo de 1440p,tienen pinta de que a 1080p eso va a necesitar un peazo equipo de cuidado.
saludos
-
Pues teniendo en cuenta que los haswell en principio solo van a tener un máximo de 4 núcleos no creo que vayan a marcar mucho la diferencia. Quizás cuando salgan los Haswell de 6 o 8 núcleos en el socket 2011…
-
No hay nada seguro aqui segun el roadmap dice que para el Q3 de 2013 sale IB-E,supongo que sacaran otro chipset o quiza no,pero me pareceria raro ya que con IB si han lanzado tambien las Z77 por eso lo normal es que en Cebit se vean ya plaacas X89.
Intel's Ivy Bridge-E set for Q3 2013, Shows Leaked Slide
saludos
Sí esos rumores cada vez son mas oidos, no obstante no creo que la diferencia sea como para cambiar de plataforma. Aún habiendo entrado Titan en la palestra, no creo que estos SB-E, no le saquen toda la chicha a esas graficas, cierto es que para multi gpu de esas bestias haya que sacarles todos los Mhz que podamos a nuestro procesador, pero eso no son configuraciones normales.
Salu2…
Gran comparativa Jotole ;), desde luego en la plataforma AM3+ el pcie 3.0 no tiene sentido por que ni siquiera con el pcie 2.0 la plataforma ofrece ancho de banda suficiente en multiGPU como para que las tarjetas rindan bien (o, por lo menos, no el suficiente como para que la comunicación entre GPU y CPU no tenga cuellos de botella), sobretodo tarjetas potentes. El ancho de banda que podría ofrecer un SLI/CF con 2 GPUs pcie 2.0 x16 se ve ahogado por el bus HyperTransport, que está ya bastante desfasado (El último estándar es del 2008, el HT 3.1). Es suficiente para 2 tarjetas pcie 1.0 pero no para dos tarjetas pcie 2.0.
El bus HT puede funcionar con buses de 16 bits o de 32 bits, con 32 bits se consiguen velocidades de transferencia el doble de veloces que con 16 bits, pero AMD, desde los inicios con el HT 1.0 en los Athlon 64 socket 754 implementa la versión de 16 bits, con lo que de entrada está limitando a la mitad la velocidad que permite el bus HT.
Con 16 bits en HT3.0, que es el implementado en la plataforma AM3+, se puede conseguir un ancho de banda unidireccional máximo de 10,4GB/s. El bus PCIE 2.0 funcionando a x16 ofrece un ancho de banda unidireccional de 8GB/s, pero en caso de un SLI/CF x16-x16 ese ancho de banda se vería duplicado a 16GB/s unidireccionales (lógicamente, empleando 2 buses x16 el ancho de banda total se multiplica por 2), sin embargo el bus HT seguiría limitado a 10,4GB/s, de ahí que en esta plataforma las soluciones multiGPU se ahoguen, literalmente, en este modo de funcionamiento, pues las GPUs son capaces de transmitir 16GB/s de datos, pero el bus HT no es capaz de transmitir a más de 10,4GB/s . Si hablaramos de pcie 3.0 la plataforma directamente no sería capaz de ofrecer el ancho de banda necesario para ese bus, una unica tarjeta pcie 3.0 potente dejaría el bus HT sin ancho de banda, pues hablariamos de que una única tarjeta ofrecería un ancho de banda de 16GB/s a x16 (El doble que con pcie 2.0) que sería limitado por los 10,4GB/s del bus HT 3.0. La única solución sería pasar a un bus HT de 32 bits, que también formaría un cuello de botella en caso de SLI/CF con 2 tarjetas pcie 3.0 funcionando a x16-x16.
Como comenta fjavi, el tener el controlador pcie en el chipset en lugar de en la CPU también influye en el rendimiento, siempre será mejor una comunicación lo más directa posible y con menor longitud, y también hay que decir, que los Bulldozers ya sabemos como rinden, si el juego de turno no es capaz de usar sus 8 cores el rendimiento es malo en comparación a las CPUs de Intel de 4 cores, no hablemos ya de SB-E con 6 cores…
Muchas gracias Wargreymon, es un placer enseñar graficamente, todo lo que vemos en casa…Así cada compañero sabe de primera mano a que se enfrenta. Es verdad que AMD, ha cogido un camino que como no lo cambie, va a dejar a Intel sin competencia. Espero que pronto encuentren de nuevo el camino a seguir y le planten cara como hace años.
Si no, me veo, como en el tema de las gpu´s con Nvidia, el que quiera rendimiento puro y duro va a tener que soltar una pasta.
Salu2...
-
Pues teniendo en cuenta que los haswell en principio solo van a tener un máximo de 4 núcleos no creo que vayan a marcar mucho la diferencia. Quizás cuando salgan los Haswell de 6 o 8 núcleos en el socket 2011…
Por el momento parece que 4 o 6 nucleos no importan casi,ya veremos con las consolas nuevas,pues tendran mas nucleos pero poco potentes,por ahora parece que importa mas la plataforma,osea cada vez meten mejores controladores ya sea de memoria,Pcie,no es que se avance mucho pero algo se nota,Ivy tira bien lo que tiene la desventaja con SB del OC,los SB con pcie3 serian mejores solo por el OC,el socket 2011 es espectacular,pero yo lo veo muy verde,parece mas para servidores y cosas de esas que para gama entusiasta de escritorio y los SB o IB parecen mas de portatil,por lo menos los SB salieron buenos,por eso creo que Intel debe sacar algo que convenza por que algunos fabricantes de placas no estan contentos con los RMA del 2011 y las ventas de Z77 aunque sea un buen chipset.
Aunque no espero mucho,ya quiero cambiar pero a algo que me convenza y si Haswell no lo hace pues tocara esperar a IB-E.
saludos
Sí esos rumores cada vez son mas oidos, no obstante no creo que la diferencia sea como para cambiar de plataforma. Aún habiendo entrado Titan en la palestra, no creo que estos SB-E, no le saquen toda la chicha a esas graficas, cierto es que para multi gpu de esas bestias haya que sacarles todos los Mhz que podamos a nuestro procesador, pero eso no son configuraciones normales.
Salu2…
Salu2...
Claro Jotole a vosotros no os compensara cambiar,ya que teneis una plataforma buena,a mi si que hace la tira que queria cambiar la x58 y al final sigo aguantando por que no me convencen del todo las ultimas plataformas,por eso segun sean haswell pues posiblemente cambie y sino pues IB-E,ultimamente como tampoco meto graficas mas potentes pues la X58 me sirve perfectamente,al final tanto el 1366 como las 480 me estan durando mas que ningun otro socket o graficas,me han salido rentables.
Un saludo
-
Excelente review Jotole,gracias!
Yo pensaba que en juego no habia tanta diferencia..pero veo que me equivoco..Ese i7 tiene 6 nucleos/12 hilos no?Entonces es normal que rinda el doble en benchs como sandra etc,ya que hacen uso de todos los nucleos.Pero en juegos,me sorprendio mucho..A ver si sacan los HASWELL,y doy puerta a mi i7 920 xD.
Que rinde mas en estos momentos,un i7 920 a 4ghz,o un Fx 8350 a 4,8ghz?
Un saludo!
-
Excelente review Jotole,gracias!
Yo pensaba que en juego no habia tanta diferencia..pero veo que me equivoco..Ese i7 tiene 6 nucleos/12 hilos no?Entonces es normal que rinda el doble en benchs como sandra etc,ya que hacen uso de todos los nucleos.Pero en juegos,me sorprendio mucho..A ver si sacan los HASWELL,y doy puerta a mi i7 920 xD.
Que rinde mas en estos momentos,un i7 920 a 4ghz,o un Fx 8350 a 4,8ghz?
Un saludo!
Gracias Piratilla,
Que rinda mas el 3930 en pruebas de procesador aparte de por sus mayor numero de nucleos, es por su mayor ipc.
Esa pregunta es dificil de responder, bajo mi punto de vista y mi experiencia te díria que un 920, no por tanto como un 3930, pero algo si se notaría.
En pruebas que hice al tener las 2 plataformas, por poner un ejemplo, en Metro 2033 a 1920 x 1080 saca mas fps el 920, pero lo tenía a 4,3. Estan pasadas con un Sli de 670.
Salu2…
-
Salu2…
Casi na¡¡¡¡ :wall::wall::wall:
AMD ponte las pilas y optimiza el ipc de tus micros en vez de meter cores.
-
Casi na¡¡¡¡ :wall::wall::wall:
AMD ponte las pilas y optimiza el ipc de tus micros en vez de meter cores.
AMD con los FX debio sacar un socket solo para ellos,no dar retrocompatibilidad,meter los controladores sata y pcie al CPU,mejorar el hiper transport que ya tiene tiempo,tambien mejorar algo el ancho de banda de memoria por que Intel le saca mucho y eso lo solia hacer mejor AMD.
Aunque parece que el ingeniero de memoria se fue a Intel,pero deberia haber hecho una plataforma nueva,por que sino Intel tiene todas las ventajas,menor proceso de fabricacion,cambia de socket como de camisa y ademas el tic toc,por eso creo que AMD debia haber abandonado la retrocompatibilidad por que eso le va lastrando,no se puede avanzar tanto dando retrocompatibilidad.
saludos
-
AMD con los FX debio sacar un socket solo para ellos,no dar retrocompatibilidad,meter los controladores sata y pcie al CPU,mejorar el hiper transport que ya tiene tiempo,tambien mejorar algo el ancho de banda de memoria por que Intel le saca mucho y eso lo solia hacer mejor AMD.
Aunque parece que el ingeniero de memoria se fue a Intel,pero deberia haber hecho una plataforma nueva,por que sino Intel tiene todas las ventajas,menor proceso de fabricacion,cambia de socket como de camisa y ademas el tic toc,por eso creo que AMD debia haber abandonado la retrocompatibilidad por que eso le va lastrando,no se puede avanzar tanto dando retrocompatibilidad.
saludos
Yo estoy completamente en contra de hacer retrocompatible con los socket, me parece bien lo que hace intel, yo prefiero ganar rendimiento a costa de cambiar de socket a quecarme estancado como lo esta haciendo AMD.
-
Yo estoy completamente en contra de hacer retrocompatible con los socket, me parece bien lo que hace intel, yo prefiero ganar rendimiento a costa de cambiar de socket a quecarme estancado como lo esta haciendo AMD.
hombre tambien hay que ver que Intel tiene mucho mas $$$$$$,entonces tiene un departamento de I+D muy superior,los AMD K8 eran mejor que los intel,AMD metio antes controladoras de memoria al cpu y un bus mas avanzado que el fsb de Intel,lo que ocurre que algun CEO no tomo buenas decisiones,se retrasaron con phenom,luego lo de BD los debio lastrar mas,incluso ese CEO anterior que dejo de lado el desarrollo de ARM,que era algo que les podia haber venido muy bien viendo el panorama economico actual.
Por eso quiza los recursos economicos no les permitian hacer cosas importantes.
Quiza tambien la compra de ATI les haya supuesto un gran esfuerzo economico que al final se les ha ido juntando todo.
saludos
-
Si es que estos SB-E son unas bestias, pasé del 2600k al 3930k hace dos meses y no puedo estar más contento!
-
Casi na¡¡¡¡ :wall::wall::wall:
AMD ponte las pilas y optimiza el ipc de tus micros en vez de meter cores.
Tal vez han visto que no podían competir por esa vía y han tenido que buscar otro mercado rezando por la vida más allá del gaming entusiasta.
Yo estoy completamente en contra de hacer retrocompatible con los socket, me parece bien lo que hace intel, yo prefiero ganar rendimiento a costa de cambiar de socket a quecarme estancado como lo esta haciendo AMD.
Estoy de acuerdo en buena medida, más les vale cortar por lo sano y dar un buen salto con la próxima apuesta <:(
-
hombre tambien hay que ver que Intel tiene mucho mas $$$$$$,entonces tiene un departamento de I+D muy superior,los AMD K8 eran mejor que los intel,AMD metio antes controladoras de memoria al cpu y un bus mas avanzado que el fsb de Intel,lo que ocurre que algun CEO no tomo buenas decisiones,se retrasaaron con phenom,luego lo de BD los debio lastrar mas,incluso ese CEO anterior que dejo de lado el desarrollo de ARM,que era algo que les podia haber venido muy bien viendo el panorama economico actual.
Por eso quiza los recursos economicos no les permitian hacer cosas importantes.
Quiza tambien la compra de ATI les haya supuesto un gran esfuerzo economico que al final se les ha ido juntando todo.
saludos
yo tambien creo que ese es su problema tanto en las CPUS como en las GPUS
e INTEL tiene un mercado fijo que le garantiza unos muy grandes ingresos ( empresas y algo mas )saludos
-
yo tambien creo que ese es su problema tanto en las CPUS como en las GPUS
e INTEL tiene un mercado fijo que le garantiza unos muy grandes ingresos ( empresas y algo mas )saludos
Problemas economicos si tienen pero creo que en GPU no lo tenian tan mal,hasta ahora de una u otra forma han competido,lo malo puede ser si se retrasan,aunque creo que nvidia tampoco quiere apretar,le interesa mas vender gamas baratas como gama alta y sacar una exclusiva para unos pocos que no influira mucho en el mercado.
Intel seguia vendiendo mas con los P4 que eran peores que los AMD,aunque es verdad que en esa epoca fue cuando AMD consiguio la mayor cuota de ventas de CPU,si se hubiera mantenido otra generacion mas seguro le hubiera recortado mas cuota de mercado,se hubiera acercado mas a Intel,o por lo menos haberse alternado,pero con BD lo tenian muy dificil ya que AMD tenia que fabricar en 32nm mientras Intel ya tenia casi los 22nm,asi es muy dificil competir.
saludos
-
Jotole, le podrías pasar el Crysis 3?? Haber si van tan bien como dicen el FX.
-
@Indecis0:
Jotole, le podrías pasar el Crysis 3?? Haber si van tan bien como dicen el FX.
Negativo Indecis0, ya no tengo esa plataforma, pero no me extrañaria que fuese verdad, me explico:
El crysis 3 es el primer juego que hace uso de todos los cores de nuestro procesador, hilos logicos (HT), incluido.
Yo mismo lo he comprobado esta noche con el 3930 @ 4,9 Ghz, lo he probado con HT y sin él, y va muchisimo mejor con él.
Ver para creer….:ugly: Al final vamos a sacar partido de los procesadores con 12 hilos. Esto lo podeis comprobar cualquiera que tenga el juego, basta con deshabilitar el HT en la bios. ( y un procesador con HT, claro )
No sé si será el camino a seguir, pero es una cosa que me ha sorprendido bastante hoy.
Salu2..
-
Negativo Indecis0, ya no tengo esa plataforma, pero no me extrañaria que fuese verdad, me explico:
El crysis 3 es el primer juego que hace uso de todos los cores de nuestro procesador, hilos logicos (HT), incluido.
Yo mismo lo he comprobado esta noche con el 3930 @ 4,9 Ghz, lo he probado con HT y sin él, y va muchisimo mejor con él.
Ver para creer….:ugly: Al final vamos a sacar partido de los procesadores con 12 hilos. Esto lo podeis comprobar cualquiera que tenga el juego, basta con deshabilitar el HT en la bios. ( y un procesador con HT, claro )
No sé si será el camino a seguir, pero es una cosa que me ha sorprendido bastante hoy.
Salu2..
Ya me parecia… lo poco que me he dedicado en este ultimo tiempo sobre hardware de PC y ver que Crysis 3 a bajas resoluciones (justamente para ver que cpu saca mejor provecho), ver que un FX estaba encima de un 3570K...
-
Negativo Indecis0, ya no tengo esa plataforma, pero no me extrañaria que fuese verdad, me explico:
El crysis 3 es el primer juego que hace uso de todos los cores de nuestro procesador, hilos logicos (HT), incluido.
Yo mismo lo he comprobado esta noche con el 3930 @ 4,9 Ghz, lo he probado con HT y sin él, y va muchisimo mejor con él.
Ver para creer….:ugly: Al final vamos a sacar partido de los procesadores con 12 hilos. Esto lo podeis comprobar cualquiera que tenga el juego, basta con deshabilitar el HT en la bios. ( y un procesador con HT, claro )
No sé si será el camino a seguir, pero es una cosa que me ha sorprendido bastante hoy.
Salu2..
¿Seguro? Por que no es exactamente eso lo que se ve por la red:
El HT no suele provocar grandes diferencias en juegos, pues se trata de algo "condicional", es decir, es algo que solamente funciona cuando ocurre un fallo en el pipeline de la CPU que hace que se descarte el hilo principal y entre en juego un hilo secundario que emplee los recursos de la CPU mientras ese primer hilo está siendo "reconstruído", ya que, en caso contrario, esos recursos estarían inutilizados mientras se vuelve a preparar el hilo principal. El fallo típico suele ser un fallo de caché, cosa que suele ocurrir cuando se procesan grandes bloques de datos (Como en edición de video) que provoca fallos en la caché L1 que es bastante pequeña, de ahí que en ese tipo de aplicaciones el HT tenga tanto impacto.
Los juegos normalmente no son una aplicación que provoquen este tipo de fallos (Aunque eso dependería del motor gráfico concreto), con lo que el impacto del HT no suele ser muy grande por ese motivo. Por eso yo tengo mis dudas de el impacto del HT en este juego, y más viendo como en esa gráfica donde prueban un Sandy bridge E de 6 núcleos si, usa los 6 núcleos, pero a la mitad. Habría que diferenciar lo que es emplear X hilos y lo que es emplear X hilos completamente, que es lo que le ocurre al i3 en esa gráfica (Donde no hay apenas uso del HT tampoco, cosa que demostraría que el HT no exíste apenas en ese juego dado que no se producen fallos que lo activen) o lo que les ocurre a los duales y quads de AMD:
-
@Jotole ¿has probado ya los drivers de la Titan modeados para ver si, de verdad o no, hay diferencia de rendimiento en crysis3?
saludos
-
Hombre en benchs es lo que hay, por muchos que saques no van a salir bonitos
La cuestión es sin cronometro en mano, sin medir FPS que diferencias notas, es realmente tanta? A nivel teorico Intel esta en otro peldaño, pero da la impresión que es algo que no se nota a nivel practico como se puede esperar viendo porcentajes. Y lo digo yo que hace tiempo que no tengo AMD, pero me parece interesante lo que están haciendo.