CPU vs. GPU
-
No os preocupeis, afortunadamente ya queda poco para conocer la nueva versión de Havok, en el GDC 2013.
Salu2!
Err… ¿qué tiene que ver con el tema? Si todo comenzó con Tomb Raider, y el problema de ese juego es el motor gráfico, nada que ver con físicas.
De todas formas, Havok hasta ahora no ha hehco nada que no se viera con PhysX por cpu. Mucha gente ignora hasta qué punto se usa esta variante de physX, y para sorprender a algunos voy a dar un título:
Hitman: Absolution.
Sí, el juego Gaming Evolved con el que se hizo pack con las gráficas de AMD. Curiosidades de la vida.
Pero vamos, que la gente se olvide de lo de las físicas, lo que más carga en un juego es el tema del motor gráfico en la parte de la cpu que le toca, y despué a similar distancia tanto IA como física (cada una no suele pasar del 15% del rendimiento usado por un juego).
-
Creo que ha quedado claro que los juegos no aprovechan los CPUs, si lo que sobra se usase en condiciones para procesar las físicas u otros procesos sería interesante, por ejemplo aprovechando nuevas instrucciones como las AVX tendrían un potencial extra muy grande. A veces salen cosas relativamente sencillas como la FXAA que mejoran el rendimiento increíblemente, unas físicas más eficientes que consuman menos recursos serían un gran paso adelante.
-
¡Esta publicación está eliminada! -
Yo pienso que tiene más que ver el mal desarrollo de un juego que la necesidad general de CPU, porque por ejemplo con GTA4 ocurría algo similar a lo del Tomb Raider, costaba bastante moverlo de manera decente al máximo tanto en un i7 como en mi i5, con una 660Ti y un crossfire de 5850 en cada caso, aparte de la necesidad imperiosa de tener unos drivers decentes y un par de parches instalados. Algunos juegos recientes de bastante exigencia gráfica no pegan bajones de fps pese a usar la CPU al 100%, he podido comprobarlo, aunque aún tengo que probar el Tomb Raider y el Crysis 3, pero es por este motivo, el haberlo comprobado en otros juegos, que me inclino por el factor desarrollo del juego como causa de estos problemas. Porque seamos realistas, aunque los juegos más nuevos exigen mucho tanto de CPU como de GPU, los i5 más recientes no son moco de pavo, y más si llevan OC, por lo que señalarlos como "micros escasos de fuerza" es una tontería. También es interesante tener en cuenta otros detalles como las memorias, o mayormente el disco duro… Porque eso influye de manera directa, pues no es igual hacer las pruebas en un disco mecánico con alta velocidad lectura/escritura que hacerlas en un SSD de los más rápidos del mercado, por ejemplificar.
En resumen, hay muchos factores, pero los juegos abren este debate, y como tal creo que son los principales señalados.
Saludos
Los i5 son muy buenos pero para resoluciones normales,ni las graficas como la 670,680,7950,7970 son para 720p,son graficas pensadas para mas resolución, por eso con resoluciones tan bajas colapsa cualquier CPU,es como cuando metes un 4way que debes tener un CPU muy rápido,pero para jugar a resoluciones normales 1050p,1080p los i5 son muy buenos.
el tema de GTA4 es por que no aprovecha al 100% el procesador y lo carga bastante,si consigues que GTA4 haga un uso de 70% de CPU y tienes una tarjeta buena ira mas estable.
Ese juego en pc va con muchísimos mas detalles que en consola, lo tengo yo en Xbox y en pc y la diferencia grafica es bestial,en consola parecen monigotes, no es solo baja resolución parece que tiene muy pocos polígonos, incluso asi en consola también mete rascadas a 20 o 25 fps.
saludos
Personalmente siempre me ha parecido que Havok es el mejor sistema de físicas en videojuegos, y se esperaba una nueva versión hace años (2007), pero entonces son comprados por Intel :facepalm:, y hasta 2013 que hemos llegado para conocer la esperada nueva versión.
Por su parte, una compañía que se autodenomina de software, enemigo acérrimo de Intel, y que responde al nombre de nVIDIA, ha conseguido mejorar hasta límites insospechados la utilización de PhysX en los videojuegos en los que colabora, lo que al igual que hemos visto en el reciente Tomb Raider con colaboración de AMD, supone que todo el que no utilice el hardware para el que han "optimizado" el juego, se encuentre con un mayor uso de CPU, y peores gráficos; o generalizando mucho, un juego peor optimizado.
Salu2!
Parece que Intel piensa presentar pronto su nueva versión de Havok según esto y otras noticias que vi.
Intel presentara en el GDC 2013 su nueva versión de Havok Physics - Benchmarkhardware
Nvidia si tiene sus físicas propietarias, pero creo que desde que permitio esos efectos de físicas por GPU es cuando mas se han centrado otros a intentar sacar su propio sistema de físicas, además Nvidia parece que ya llego a un acuerdo con Sony para que la Ps4 soporte physx también,si hace lo mismo con la próxima Xbox quizá veamos al final físicas unificadas, ojala ocurriera eso.
Seria una pasada que una libreria ya fuera Dx o opencl o directcompute pueda usar todos los motores de física sea por GPU o por CPU, aprovechar mejor el Hardware.
saludos
-
Los i5 son muy buenos pero para resoluciones normales,ni las graficas como la 670,680,7950,7970 son para 720p,son graficas pensadas para mas resolución, por eso con resoluciones tan bajas colapsa cualquier CPU,es como cuando metes un 4way que debes tener un CPU muy rápido,pero para jugar a resoluciones normales 1050p,1080p los i5 son muy buenos.
Aha ósea que sólo te sirve con un CPU normal si usas 1080, con más resolución no vale y con MENOS tampoco, jajaja. Mira si encuentras un juego que vaya peor a 720 que a 1080 te aplaudo.
El i5 que tu le llamas, son cuatro núcleos sandy/ivy bridge que son los más potentes del mercado y a 3GHz solo puedes mejorarlo o bien añadiendo el HT que bien sabrás que casi ningún juego usa, un par de núcleos más que tampoco aprovechan bien, o subiendo a 4,5GHz por OC que suele ser lo que mejor funciona y funciona sea la resolución que sea.
Sobre el tomb raider la gran diferencia entre pc y ps3 como vimos en un video en la rama de juegos (Tomb Raider (2013) - HardLimit) es el PELO… Y a mi opinión el detalle de los objetos en la distancia, el resto se ve genial. Eso si también te digo que afecta mucho donde lo juegues, un plasma 720 es lo ideal por resolución y porque suaviza los dientes de sierra mucho, con el anterior Tomb Raider aunque lo tenía en pc lo acabé jugando en la tele y quedaba mucho mejor.
-
Aha ósea que sólo te sirve con un CPU normal si usas 1080, con más resolución no vale y con MENOS tampoco, jajaja. Mira si encuentras un juego que vaya peor a 720 que a 1080 te aplaudo.
El i5 que tu le llamas, son cuatro núcleos sandy/ivy bridge que son los más potentes del mercado y a 3GHz solo puedes mejorarlo o bien añadiendo el HT que bien sabrás que casi ningún juego usa, un par de núcleos más que tampoco aprovechan bien, o subiendo a 4,5GHz por OC que suele ser lo que mejor funciona y funciona sea la resolución que sea.
Sobre el tomb raider la gran diferencia entre pc y ps3 como vimos en un video en la rama de juegos (Tomb Raider (2013) - HardLimit) es el PELO… Y a mi opinión el detalle de los objetos en la distancia, el resto se ve genial. Eso si también te digo que afecta mucho donde lo juegues, un plasma 720 es lo ideal por resolución y porque suaviza los dientes de sierra mucho, con el anterior Tomb Raider aunque lo tenía en pc lo acabé jugando en la tele y quedaba mucho mejor.
A ver yo me refiero a resoluciones superiores a 1050,contra mas resolución mejor carga la tarjeta y mejor va siempre que no tenga fps muy bajos,ese i5 puede ser un SB pero a resolución tan baja se va a encontrar juegos que si vera muchos fps y notara microsttutering,por que la grafica podrá tener bajadas de carga importantes.
Tu ponte un SLI por ejemplo de 580 y ponte a jugar FC2 a 720p a ver si es verdad que va mejor o tiene un MS de cuidado y quizá se vean muchos fps,pero esta claro que la carga de las tarjetas van a bajar por debajo del 50% en muchos momentos,mientras que a mayor resolución no bajara posiblemente del 80%,no todo son mas fps es como trabajan las tarjetas.
Tu pones una 295 en un Q6600 con una X48 y pones esas resolución y directamente da asco jugar asi, en esa plataforma hasta a 1080p va mal esa tarjeta, si bajas mas la resolución directamente es que es mejor jugar ya con una 275,aunque claro dependerá del juego.
Es a lo que yo voy que no todo son mas fps, también influye mucho a que carga trabaja la tarjeta, si la tarjeta va en un momento a 90% y en otro baja a 45% va a dar muy mala sensación, no es lo mismo cuando se aplica vsync que la tarjeta quizá solo necesite trabajar a 60% pero estable.
Ha comentado juegos que me gustaría bastante ver como le van,a ver si nos da su opinión en Crysis,Farcry 3,hitman o Max payne 3,esos me interesan ver si le van bien o no y me interesa ver que fps minimos tiene,sobretodo a cuanta carga va la tarjeta.
-
Yo antiguamente entendía que el CPU limitara en juegos tipo estrategia que manejaban mucha info para las IA que no tenía que ver con cálculos gráficos. Pero a día de hoy si un juego no se contenta con un procesador como los actuales que pueden pasar de 100GFlops es completamente absurdo. Estos juegos tipo Borderlands, Tomb Raider es culpa de los desarrolladores que no han optimizado un cuerno, en muchos casos porque son hechos pensando en consolas y se le añade otro problema como les pasa a Crysis o Metro que ponen unas configuraciones tope exageradas quizas pensando futuro o sinceramente PUBLICIDAD.
Lo que pasa con la carga del CPU de Tomb Raider es lo mismo que pasa si pones a funcionar el SuperPI, realmente es un hilo de proceso que en vez de ir a parar a un núcleo se alterna entre los 4, si en el administrador de tareas pones que se a afine a un nucleo verías una carga del 100% en uno de los núcleos obteniendo el mismo resultado. En Tomb Raider poner el LOD a tope no es aceptable, con lo cual lo bajas y juegas normalmente, a veces también es culpa nuestra estar obsesionados con los ajustes más altos.
De todas en un caso normal, cosas raras como las que comentamos aparte, la limitación que le pondría el CPU a la gráfica (o el cuello de botella) sería algo así, una vez alcanza la potencia que necesita el juego la subida de FPS se estabiliza.
Mira, yo de programar sé un poco (curro), así que te puedo decir que a diferencia de lo que piensa mucho usuario de foro o de juegos, en absoluto es trivial crear un programa multihilo que tenga A SU VEZ cada subsistema no en un único hilo, sino en varios, y que además haga un buen reparto de recursos y uso de cada core presente. Lo que pasa en Tomb Raider es lo que pasa en mil juegos, y es que el subsistema gráfico va al completo en un único hilo.
Pocos juegos tienen este subsistema paralelizado entre varios hilos, en teoría se puede hacer pero no es un asunto trivial.
El problema es que la situación que tú pones ocurre "normalmente" pero no siempre, porque de la misma forma que hay escenas que a nivel gráfico son mucho más costosas para la gpu y produce una bajada de fps, hay otras situaciones que pueden llevar a lo mismo a la cpu, aunque la escena en sí para la gráfica sea trivial o muy normal.
Ejemplos, todos los que te he puesto incluido el Tomb Raider, Borderlands, etc. Añade otro a tu lista, Starcraft II, que usa multihilo y aún no tengo claro qué subsistema es el que se "sobrecarga" (motor gráfico, IA, etC), pero muchas veces se ve que la gráfica va a medio gas y tienes en plena partida variaciones de 30 a 45 fps en ciertos momentos.
Que en este último caso es jugable de todas formas, pero sí se nota algo esto. Están ocurriendo mil veces este tipo de problemas en cantidad de juegos, y muchas veces no son sólo un momento puntual, son fases enteras o el juego completo (Dead Rising 2).
NO son situaciones donde el rendimiento gráfico limite, porque los casos dichos son juegos relativamente normales (excepto Tomb Raider), el rendimiento en este caso está limitado por la cpu y el subsistema concreto del juego que limita el rendimiento de todo lo demás (dado que cada subsistema se "sincroniza" en un juego miltihilo para actualizar el "estado" del juego cada X tiempo, todos los subsistemas están limitados por el más lento o que más tarda en hacer sus tareas).
O sea, que esas gráficas son muy bonitas pero no representan la realidad en multitud de juegos, y si un i5 con Oc es capaz de atragantarse con un juego, con su IPC y frecuencia a raudales, es que este juego, esté mal o bien programado (que ya digo que no es lo que mucha gente piensa lo de explotar el rendimiento en MT), en este juego el límite es la cpu.
Llana y claramente. Y NO, 100 GFlops no tienen nada que ver con el rendimiento en juegos de una cpu, porque no se trata de machacar unas matrices enormes a base de AVX que es una tarea relativamente simple de paralelizar.
Los juegos en absoluto son tareas tan simples, en cada uno de sus subsistemas, y más marca el rendimiento sus capacidades de ejecución avanzadas que el puro machaque de datos (ejecución especulativa, prefetch y funcionamiento de cachés y memoria, etc). O sea, que para nada "cosas tan raras".
PD: Por cierto Bm4n, si tienes algo que comentar sobre gente y sus opiniones, hazlo por aquí. Ya sabes a qué me refiero.
Saludos.
–--
Fjavi:
Estás diciendo cosas "muy raras" de dios... a ver si te vas a estar liando. :troll:
-
Y si el disco duro es el prácticamente el componente del que más depende la fluidez del software en un ordenador… ¿por qué no aparece en este debate?
Saludos
-
Y si el disco duro es el prácticamente el componente del que más depende la fluidez del software en un ordenador… ¿por qué no aparece en este debate?
Saludos
Porque un buen programa evitará como sea quedarse con el culo al aire, y o hará cargas iniciales y únicas de mapeados, o un streaming del mapeado en segundo plano ANTES de necesitar los datos. No suele ser un problema, y cuando lo es un buen SSD lo arregla.
En cambio el tema de la cpu es más voluble y siempre importante en todo juego, no se puede tener un athlon x2 y una GTX Titan y que los juegos vayan bien, por hacre una hipérbole.
-
@__wwwendigo__ Entonces tenemos la misma opinión, no se que estamos discutiendo. Lo único que no he dicho es que sea algo sencillo, sino todos lo harían, pero el tema es ese que es realmente necesario que los juegos optimicen los recursos actuales. Mis opiniones creo que quedan muy claras, pero vamos si quieres que aclare más solo pregunta
@__fjavi__ yo la primera vez que vi lo del microstutter era con el tema de multiples gráficas, que parece que tenían problema en la división del trabajo y también se había visto que aunque mostraban por ej. 60FPS realmente en pantalla se mostraban muchas menos. Pero se ve que en ciertos juegos aun con configuraciones simples tienen reiteradamente lags a la hora de mostrar frames. Y luego están los bajones de FPS de toda la vida.
Es muy posible que con graficas de doble GPU o varias gráficas tengas problemas si no usas un buen CPU, eso no te lo niego, pero en general siempre habrá menos carga para los gráficos a menor resolución.
-
Porque un buen programa evitará como sea quedarse con el culo al aire, y o hará cargas iniciales y únicas de mapeados, o un streaming del mapeado en segundo plano ANTES de necesitar los datos. No suele ser un problema, y cuando lo es un buen SSD lo arregla.
En cambio el tema de la cpu es más voluble y siempre importante en todo juego, no se puede tener un athlon x2 y una GTX Titan y que los juegos vayan bien, por hacre una hipérbole.
Bestial hipérbole donde las haya…
Pero ahora que lo dices, yo tengo un Ahtlon X2 junto al que tuve una 5850 Xtreme. No jugué al máximo al GTA IV pero si con casi todo alto y en 1280x1024, y la verdad es que no noté inestabilidad en los fps ni bajones puntuales de carga. El caso es que al principio si ocurría, con drivers antiguos y sin parchear el juego, lo pasé muy muy mal... Pero luego parcheé para enmendar la pegada de Rockstar y actualicé drivers (y aún eran los 12.11 que ya es decir) y la estabilidad llegó. La variación era mínima, entre 3 y 6 frames cada vez, salvo algún pico extraño en que caían 10 o más por temas de programas de fondo o cargas de gráficos puntuales con mucha acción, pero por lo general era bastante fluído, aunque no eran muchos fps lo que conseguía de media, porque con ese equipo y tan poca RAM y tal, es normal...
Lástima que no tengo ya la 5850 aquí, que si no lo probaría ahora para ver que resultados se obtienen, sobre todo ahora que ha salido hace poco el catalyst 13.1 y no he podido probarlo en este equipo.Saludos
-
@__wwwendigo__ Entonces tenemos la misma opinión, no se que estamos discutiendo. Lo único que no he dicho es que sea algo sencillo, sino todos lo harían, pero el tema es ese que es realmente necesario que los juegos optimicen los recursos actuales. Mis opiniones creo que quedan muy claras, pero vamos si quieres que aclare más solo pregunta
@__fjavi__ yo la primera vez que vi lo del microstutter era con el tema de multiples gráficas, que parece que tenían problema en la división del trabajo y también se había visto que aunque mostraban por ej. 60FPS realmente en pantalla se mostraban muchas menos. Pero se ve que en ciertos juegos aun con configuraciones simples tienen reiteradamente lags a la hora de mostrar frames. Y luego están los bajones de FPS de toda la vida.
Es muy posible que con graficas de doble GPU o varias gráficas tengas problemas si no usas un buen CPU, eso no te lo niego, pero en general siempre habrá menos carga para los gráficos a menor resolución.
El tema es que mucha gente piensa que es fácil hacer uso de sistemsa multicore, y aunque sea necesario, por la parte que me toca yo comprendo los problemas y retos que se encuentran.
Es por eso que yo a la hora de recomendar cpus siempre he apostado, para usos como juegos y demás, priorizar primer el rendimiento por núcleo, y después de esto el rendimiento conjunto contando el número de cores. Los Quads llevan tiempo entre nosotros y siguen sin aprovecharse eficientemente, y no es sólo por culpa de los "ports de consolas" (XBOX 360, tres núcleos y 6 hilos, PS3, 1+6 núcleos (para la aplicación) y
2613 hilos simultáneos manejables), si fuera por esto llevarían mucho tiempo usándose bien aunque fuera con gráficos DX9. Es que el problema es peliagudo.Por eso me asombra la fe que profesa la gente con los sistemas con más cores aún, y con las nuevas consolas con cpus que tienen un rendimiento por core muy bajo (baja frecuencia, IPC normalito, con suerte) aunque tenga un buen lote para comenzar. Y por eso digo que nunca se descuide la cpu, porque no hay nada más frustante que tener una gráfica de 400€ y ver que tu cpu de 175€ aún con OC hay situaciones donde se queda un poco corta (hago ejemplo con mi caso).
Pero vamos, que no hay discusión sobre el tema. Pero ya te digo que el problema es peliagudo y de hecho más de una vez he tenido curiosidad por él pero nunca me he metido en ese tipo de berenjenales porque realmente no me "competen" (por lo menos no hasta ahora), pero la curiosidad más de una vez me llevó a investigar sobre estos temas.
En cierta forma las cpus están limitando tanto o más que la propia gráfica el diseño de juegos, porque a diferencia de las gráficas, el arco de rendimientos de cpus es más estrecho, y por tanto se pueden hacer menos "florituras" por la parte que les toca. Una de las razones para que la IA en juegos sea básicamente la misma usada en juegos de hace 10 o 15 años aún, o se tire a lo fácil de escenas scriptadas.
-
El futuro pasa por los multinucleo sin lugar a dudas, AMD por ejemplo está trabajando en hacer trabajar múltiples núcleos en un solo hilo, vamos al contrario del HT de Intel. Esto es tremendamente interesante, porque como sabrás en la ejecución de un juego hay cantidad de procesos con lo que teóricamente procesarlos simultáneamente podría mejorar mucho el rendimiento, claro que entretejer todo eso "manualmente" como dices es complicado, depende de los compiladores, lenguajes, programas, etc. que se usan a la hora de programar el permitir optimizar esto.
Imaginemos que podemos procesar independientemente el sistema de IA, iluminación, fisicas, cálculos de distancias, el HUD, etc. y ahora dedicar a este proceso porque consume más 4 núcleos de "potencia", a este solo uno, al otro dos, etc. Creo que eso es a lo que se aspira con la tendencia que está tomando el mundo de los procesadores.
No estoy de acuerdo con que el margen de los CPUs sea muy corto, simplemente a nivel de potencia de calculo por ciclo de reloj se ha avanzado muchísimo, aquí algunos recordamos cuando el SuperPI de 1MB se pasaba en muchos minutos y ahora tarda menos de 10". A nivel de pipeline se ha experimentado con todo, los predictores avanzaron muchisimo también, los caches y su uso compartido/independiente, sets de instrucciones, etc. los anchos de banda a memoria bus central y periféricos que ahora son prácticamente directos, etc. Es realmente impresionante la capacidad que tienen, lamentablemente resulta que para tareas cotidianas resultan igual de buenos un ARM, quizás en el futuro veamos CPUs hibridos con núcleos de diferente tipo dedicados a diferentes tipos de calculo con diferentes relojes.
Aunque el problema yo creo que es que esa potencia no les sirve de nada a los programadores porque no tienen las herramientas para explotarlo, de ahí que ahora mismo para ver la velocidad de un CPU tengas que sacar el cronometro en algoritmos como la descompresión de ZIPs o la compresión de video…
El paralelismo en si muchas veces es necesario, un CPU que pueda interconectarse con el GPU cosa que también esta en el punto de mira de AMD sería otro gran avance y logicamente necesita de usar multiples núcleos.
Y como veras aqui siempre recomendamos montar equipos equilibrados, un CPU barato con una gráfica carísima es un desperdicio. El buen rendimiento de un PC está en el equilibrio entre los componentes.
-
El futuro pasa por los multinucleo sin lugar a dudas, AMD por ejemplo está trabajando en hacer trabajar múltiples núcleos en un solo hilo, vamos al contrario del HT de Intel. Esto es tremendamente interesante, porque como sabrás en la ejecución de un juego hay cantidad de procesos con lo que teóricamente procesarlos simultáneamente podría mejorar mucho el rendimiento, claro que entretejer todo eso "manualmente" como dices es complicado, depende de los compiladores, lenguajes, programas, etc. que se usan a la hora de programar el permitir optimizar esto.
Imaginemos que podemos procesar independientemente el sistema de IA, iluminación, fisicas, cálculos de distancias, el HUD, etc. y ahora dedicar a este proceso porque consume más 4 núcleos de "potencia", a este solo uno, al otro dos, etc. Creo que eso es a lo que se aspira con la tendencia que está tomando el mundo de los procesadores.
No estoy de acuerdo con que el margen de los CPUs sea muy corto, simplemente a nivel de potencia de calculo por ciclo de reloj se ha avanzado muchísimo, aquí algunos recordamos cuando el SuperPI de 1MB se pasaba en muchos minutos y ahora tarda menos de 10". A nivel de pipeline se ha experimentado con todo, los predictores avanzaron muchisimo también, los caches y su uso compartido/independiente, sets de instrucciones, etc. los anchos de banda a memoria bus central y periféricos que ahora son prácticamente directos, etc. Es realmente impresionante la capacidad que tienen, lamentablemente resulta que para tareas cotidianas resultan igual de buenos un ARM, quizás en el futuro veamos CPUs hibridos con núcleos de diferente tipo dedicados a diferentes tipos de calculo con diferentes relojes.
Aunque el problema yo creo que es que esa potencia no les sirve de nada a los programadores porque no tienen las herramientas para explotarlo, de ahí que ahora mismo para ver la velocidad de un CPU tengas que sacar el cronometro en algoritmos como la descompresión de ZIPs o la compresión de video…
El paralelismo en si muchas veces es necesario, un CPU que pueda interconectarse con el GPU cosa que también esta en el punto de mira de AMD sería otro gran avance y logicamente necesita de usar multiples núcleos.
Y como veras aqui siempre recomendamos montar equipos equilibrados, un CPU barato con una gráfica carísima es un desperdicio. El buen rendimiento de un PC está en el equilibrio entre los componentes.
No sé de dónde sacas eso, pero que sepas que AMD no tiene ni un sólo producto en el mercado que haga esto, y tampoco lo hará en las siguientes generaciones a Piledriver.
De hecho eso se rumoreó mucho con Bulldozer debido a opiniones indocumentadas, antes de su lanzamiento. Dije que era un disparate, me apedrearon por decir eso (y otras cosas sobre su rendimiento) y tras el lanzamiento muchos tuvieron que pedir disculpas.
Sobre el margen de las cpus, es más escaso porque las gpus son más variables en sí, el rendimiento de hace 5 años por gpu era muy distinto al actual, y el rendimiento de una cpu de hace 5 años sin embargo no es tan distinto a las actuales. Por tanto como la potencia de cpu no cambia tanto no te puedes permitir el lujo de implementar algoritmos de IA muy avanzados, físicas equivalentes a PhysX GPU pero por cpu, etc.
Por último, aunque esto sí lo está haciendo AMD, dudo mucho que sirva para "todo", porque precisamente las gráficas están demostrando que no son buenas para muchos problemas complejos a pesar de su potencia, ya que mientras son buenas "machacando matrices" no se llevan bien con código condicional y otros usos típicos de programas también intensivos.
Esto es, AMD lo que pretende es desplazar la falta de potencia en IPC y coma flotante de sus núcleos a una gpu integrada y bien comunicada con la cpu, de forma que sea casi una extensión de la cpu más que un añadido pegado en la die pero realmente distinto.
Esto puede ser útil para acelerar alguna cosa como físicas de segundo orden (las típicas que hace PhysX GPU), cálculo matricial, incluso puede venir bien en algunas etapas del subsistema gráfico que ejecuta la propia cpu. Pero no va a servir ni remotamente para "todo", eso debería quedar claro.
Hoy en día el soft GPGPU deja mucho que desear en la mayoría de programas que están fuera del mundo científico, por multitud de razones. Y no es porque las librerías ya no estén maduras.
Lo que hace falta es mejores cores con más ipc y más frecuencia, todo esto posible pero que no se hace por la simple razón de que AMD está en aprietos e intel aprovecha para relajarse de una forma casi obscena con sus productos.
-
Cuando el rio suena… desde hace años se habla que era proyecto de AMD mejorar el proceso de un solo hilo en procesadores de varios núcleos, no he dicho que ya lo haya, pero por los pasos que lleva parece que por ahí van los tiros. Más que un disparate es lo lógico.
No se porque dices que no ha avanzado tanto cuando en realidad si lo han hecho, lo que pasa es que a veces nos falta memoria, y eso que no se explotan bien sus capacidades, seguro que el tiempo en idle de un CPU ha aumentado muchísimo.
El aumentar la frecuencia de los núcleos va muy atado al tamaño y tipo de fabricación, se puede mejorar el IPC aunque son realmente eficientes y tampoco se puede hacer magia con el si no hay unas instrucciones para aprovechar las capacidades. La alternativa es usar el multiproceso o mejor dicho aprovecharlo, es como el paso a 64bits, tardará años pero acabará llegando.
Intel ahora se dedica a ganar dinero, no hará grandes inversiones hasta que lo necesite, lógico. Y hasta a mi me parece bien, ahora mismo yo no me plantearía comprar un procesador con más velocidad ni con más núcleos, solo lo compraría si el IPC ha mejorado y rinde mejor porque se que del resto habrá pocas cosas que donde sacarle provecho.
-
Cuando el rio suena… desde hace años se habla que era proyecto de AMD mejorar el proceso de un solo hilo en procesadores de varios núcleos, no he dicho que ya lo haya, pero por los pasos que lleva parece que por ahí van los tiros. Más que un disparate es lo lógico.
No se porque dices que no ha avanzado tanto cuando en realidad si lo han hecho, lo que pasa es que a veces nos falta memoria, y eso que no se explotan bien sus capacidades, seguro que el tiempo en idle de un CPU ha aumentado muchísimo.
El aumentar la frecuencia de los núcleos va muy atado al tamaño y tipo de fabricación, se puede mejorar el IPC aunque son realmente eficientes y tampoco se puede hacer magia con el si no hay unas instrucciones para aprovechar las capacidades. La alternativa es usar el multiproceso o mejor dicho aprovecharlo, es como el paso a 64bits, tardará años pero acabará llegando.
Intel ahora se dedica a ganar dinero, no hará grandes inversiones hasta que lo necesite, lógico. Y hasta a mi me parece bien, ahora mismo yo no me plantearía comprar un procesador con más velocidad ni con más núcleos, solo lo compraría si el IPC ha mejorado y rinde mejor porque se que del resto habrá pocas cosas que donde sacarle provecho.
No, no es lógico. Hacer eso implicaría mecanismos de comunicación y sincronización entre cores en distintas de sus etapas que complicarían tanto el diseño hasta hacerlo ridículo, ya que una simple implementación de un "supercore" (fusión de recursos real de X cores) con soporte de SMT hace mejor este papel.
Ya te digo que este rumor es muy antiguo, se dijo mucho que eso era lo que haría Bulldozer (la confusión la creó la propia AMD, recuerdo alguna presentación añeja y muy ambigua), y desde que salió no volvió a hablarse en absoluto ni de lejos de algo así (por parte de AMD).
Así que seguramente no se hará, porque además de parecer un poco disparatado (ojo que no digo que imposible, sólo que yo no le veo sentido alguno), hay caminos para mejorar el IPC de verdad más directos que coger, fusionar un par de etapas en unos cores que reduces desde los K10, y después tardar varias generaciones en ¿comunicarlos? para conseguir un rendimiento… ¿poco mejor que el que tenían en origen, qué IPC podría tener algo así?
No mucho ya, un módulo de AMD de 2 cores tiene 4 decoders, eso limita el número de instrucciones por ciclo que puede ejecutar (x86), y en absoluto es mejor que lo que se puede hacer ya en otras arquitecturas que no han recurrido a esa maniobra rocambolesca.
AMD ha apostado (posiblemente mal) a simplificar cores para intentar integrar muchos en una sóla die (aunque esto no le ha salido del todo bien mirando tamaño de die y nº de transistores usados), es un buen argumento para el departamento de marketing, pero todos los problemas de rendimiento que incluso con Piledriver siguen teniendo se deben a esto.
Esta ruta iniciada con Bulldozer no acaba con ningún "SMT inverso" como el que describes. Con suerte acabarán haciendo cores relativamente rápidos y en gran número, si es que arreglan por el camino las cagadas que cometieron. Pero... fusión de cores para un mismo hilo, ni de coña:
El diseño de Steamroller en absoluto apunta en esa dirección, y lo poco que se sabe de Excavator tampoco, en principio.
-
Pues si el rumor data de cuando AMD comenzaba con el bulldozer, evidentemente el pipeline no puedes compartirlo pero lo que ha hecho AMD ha sido compartir el descodificador y el cache. Por desgracia no lo hicieron nada bien, porque esos dobles núcleos no eran realmente el doble de potentes en muchos aspectos como en la FPU. Y el marketing de llamar 2 núcleos a lo que realmente es 1 no le ha favorecido, pero pensándolo desde otro punto de vista lo que han hecho es coger 2 núcleos y hacer que rindan como 1 de más potencia de calculo.
Pero bueno yo cuando lo vi pese a la decepción, me quedé con la sensación que eso pero bien hecho y mejorado podría ser realmente interesante. A veces grandes ideas comienzan con mal pie, quien sabe.
A mi entender ahí está el punto en mejorar el balanceo de las cargas, a nivel de programación hay soluciones que supongo se pueden mejorar, pero si a nivel de hardware lo facilitas se podría lograr que varios núcleos funcionen como uno de mayor potencia de calculo. Logicamente como bien dices, eso no lo es todo y no puedes pretender que eso sea todo el avance, hay que seguir mejorando el IPC. Pero no podemos concebir un multi procesador como cuando Intel empezó haciendo sus "multi núcleo" pegando literalmente dos procesadores en un DIE que no compartían ni el L3 como quien dice…
PD. De Steamroller no he leido apenas, le echaré un ojo, aunque sinceramente no le tengo ninguna esperanza quizás para la escarbadora nos llevemos una sorpresa hasta entonces lo dudo.
PD2. Y no quiero decir que una operación se pueda realizar en dos núcleos a la vez que sería imposible, pero sabemos que al ejecutar varias operaciones en un hilo nunca va ser 100% eficiente a menos que sea un calculo puro y duro, el HT lo que hace es rellenar los huecos que quedan en la ejecución. Lo que yo digo es que si la cola (fetch, predictor, decoder) pudiera distribuir más eficientemente las operaciones en vez de en un FPU/ALU en varios mejoraría el rendimiento.
-
¡Esta publicación está eliminada! -
Pues si el rumor data de cuando AMD comenzaba con el bulldozer, evidentemente el pipeline no puedes compartirlo pero lo que ha hecho AMD ha sido compartir el descodificador y el cache. Por desgracia no lo hicieron nada bien, porque esos dobles núcleos no eran realmente el doble de potentes en muchos aspectos como en la FPU. Y el marketing de llamar 2 núcleos a lo que realmente es 1 no le ha favorecido, pero pensándolo desde otro punto de vista lo que han hecho es coger 2 núcleos y hacer que rindan como 1 de más potencia de calculo.
Pero bueno yo cuando lo vi pese a la decepción, me quedé con la sensación que eso pero bien hecho y mejorado podría ser realmente interesante. A veces grandes ideas comienzan con mal pie, quien sabe.
A mi entender ahí está el punto en mejorar el balanceo de las cargas, a nivel de programación hay soluciones que supongo se pueden mejorar, pero si a nivel de hardware lo facilitas se podría lograr que varios núcleos funcionen como uno de mayor potencia de calculo. Logicamente como bien dices, eso no lo es todo y no puedes pretender que eso sea todo el avance, hay que seguir mejorando el IPC. Pero no podemos concebir un multi procesador como cuando Intel empezó haciendo sus "multi núcleo" pegando literalmente dos procesadores en un DIE que no compartían ni el L3 como quien dice…
PD. De Steamroller no he leido apenas, le echaré un ojo, aunque sinceramente no le tengo ninguna esperanza quizás para la escarbadora nos llevemos una sorpresa hasta entonces lo dudo.
PD2. Y no quiero decir que una operación se pueda realizar en dos núcleos a la vez que sería imposible, pero sabemos que al ejecutar varias operaciones en un hilo nunca va ser 100% eficiente a menos que sea un calculo puro y duro, el HT lo que hace es rellenar los huecos que quedan en la ejecución. Lo que yo digo es que si la cola (fetch, predictor, decoder) pudiera distribuir más eficientemente las operaciones en vez de en un FPU/ALU en varios mejoraría el rendimiento.
Sobre lo primero que resalto, la culpa fue tanto de AMD por sus primeras diapositivas donde sí dió a entender que sería algo de ese estilo (lenguaje ambiguo), como de ciertos sites y gente que al más puro estilo de un Charlie Demerjian se dedicaron a lanzar la "buena nueva" de su interpretación errónea de las primeras presentaciones de AMD sobre lo que sería bulldozer.
El tema es que compartir etapas como la decodificación y la unidad de coma flotante, en realidad no tiene nada que ver con una unificación de la ejecución de un mismo hilo entre dos núcleos. Es simplemente una política de ahorro de costes compartiendo hard entre núcleos.
Estrictamente hablando son dos núcleos, porque a nivel lógico están totalmente separados sus recusos de ejecución y por no poder, ni se mezcla el código de cada hilo/proceso de cada core en la etapa de decodificación (se alternan por ciclos los decodificadores), la coma flotante separada, para el que recuerde las unidades de FPU opcionales de hace tiempo en los PCs, le sonará bastante y entenderá que en el fondo es "separar" dicho bloque de la cpu y compartirlo como un "coprocesador" entre dos núcleos, contando el que no se va a usar mucho.
Todo en Bulldozer va a la "simplificación" de cada core, supuestamente para aumentar mucho la cantidad total y "ganar" así más rendimiento total. Aunque lo hicieron condenadamente mal (que aún con Piledriver en programas masivamente multihilo lo pasen mal los Piledriver vs los Ivy i5 o i7, no es un buen indicativo, porque esta "igualdad" no se sostienen en otros programas multihilo o monohilo/ligeramente multihilo).
Lo último que dices ya te digo que es básicamente imposible, porque entre decoders y schedulers, hay todo un hard dedicado tanto a la predicción de saltos como al reordenamiento de instrucciones, con toda su ventana de registros, instrucciones, etc.
Para que un scheduler pudiera "elegir" entre dos cores distintos donde enviar las instrucciones a ejecutar del hilo/proceso, tendría que "cablearse" y añadir una cantidad de hard extra muy importante para hacer que una instrucción pueda ir de un "core" a "otro", y además lleve claramente identificado el hilo al que pertenece (y se restituya al flujo de instrucciones originario cableando también hasta el "retire", vamos una locura).
Pero eso no da ninguna ventaja, hoy en día existen a partir de los schedulers una cantidad de unidades de ejecución y posibles puertos de instrucciones que dan para conseguir un gran paralelismo, una "ALU" no es una ALU (como símil de cpu de enteros) hoy en día, es una colección de varios ALUs y unidades varias.
Lo más fácil y racional es usar este paralelismo ya enorme existente para ejecutar varios hilos en un mismo core, algo mucho más asequible para el hard actual, y que de hecho han implementando varios fabricantes (menos AMD). Se podría diseñar una cpu para que fuera por core extremadamente ancha, no ya para aprovechar el "ancho" de ejecución sobrante de la cpu para un nivel de paralelismo extraido de una cpu, sino que se podría sobredimensionar esta parte para que la ejecución de 2 o más hilos simultáneamente fueran con un rendimiento cercano al de funcionar en cores aislados.
Pero vamos, todo esto da igual, lo que dices no se puede hacer, o es poco o nada práctico. Lo que ha hecho AMD es reducir la complejidad de sus cpus "estrechándolas" en recursos de ejecución, y compartiendo etapas enteras más bloques como la FPU, en un intento de ir a una solución de "más cores es igual a más rendimiento". Lo que pasa es que hasta ahora le ha salido bastante rana la implementación.
Le habría ido mejor si se hubiera decidido a evolucionar de una vez por todas el diseño de los K10, que aunque parezca mentira es un heredero total del diseño del K7 original, en lo que respecta al balance de unidades de ejecución y decodificadores (3 decoders, 6 unidades de enteros y 3 unidades de coma flotante, una estructura mantenida desde el primer Athlon hasta el último Phenom II).
Intel lo hizo con el P-Pro remodelándolo tanto como hiciera falta, cambiando el balance de unidades, puertos de ejecución, decodificadores, etc, y bien que le ha ido.
Supuestas soluciones mágicas de "fusión de cores" sólo han surgido desde la mala prensa leyendo presentaciones confusas de AMD.
-
¡Esta publicación está eliminada!