• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse

    CPU vs. GPU

    Programado Fijo Cerrado Movido Tarjetas Gráficas
    60 Mensajes 10 Posters 8.1k Visitas 1 Watching
    Cargando más mensajes
    • Más antiguo a más nuevo
    • Más nuevo a más antiguo
    • Mayor número de Votos
    Responder
    • Responder como tema
    Accede para responder
    Este tema ha sido borrado. Solo los usuarios que tengan privilegios de administración de temas pueden verlo.
    • Bm4nB Desconectado
      Bm4n @Fassou
      Última edición por

      Do you think they will be as good as they say? I have my doubts ¬¬

      hlbm signature
      ↳ Mis componentes

      FassouF 1 Respuesta Última respuesta Responder Citar 0
      • FassouF Desconectado
        Fassou MODERADOR @Bm4n
        Última edición por

        Personally, I have always thought that Havok is the best physics system in video games, and a new version was expected years ago (2007), but then they were bought by Intel :facepalm:, and it wasn't until 2013 that we got to know the long-awaited new version.

        For its part, a company that calls itself a software company, a fierce enemy of Intel, and which goes by the name of nVIDIA, has managed to improve the use of PhysX in the video games it collaborates with to unsuspected limits, which, as we have seen in the recent Tomb Raider with collaboration from AMD, means that anyone who does not use the hardware for which the game has been "optimized" will find a higher CPU usage, and worse graphics; or, to generalize a lot, a game that is worse optimized.

        Salu2!

        Intel i5 3570k / ASRock Z77 Extreme 4 / G.Skill F3-12800CL9D-8GBRL / Sapphire HD5850 / Samsung HD103UJ / TR TrueSpirit / NZXT Source 210 / OCZ ZS550W
        Intel i5 4570 / ASRock H87 Pro 4 / 2x G.Skill F3-14900CL8-4GBXM / Samsung 850 EVO 250Gb + ST1000DM003 + ST2000DM003 + HGST HDS723020BLA642 + Maxtor 6V250F0 / CM Seidon 240M / Zalman MS800 / CM MWE 550
        AMD Ryzen 7 1800X / B350 / 2x8GB Samsung DDR4-2400 CL17 / NVIDIA GTX 1070 8GB / SSD 120GB + ST4000DM004 + ST6000DM003 / EVGA Supernova 650 G2

        hlbm signature

        1 Respuesta Última respuesta Responder Citar 0
        • W Desconectado
          wwwendigo @Fassou
          Última edición por

          @Fassou:

          Don't worry, fortunately there's not much left to know the new version of Havok, at GDC 2013.

          Best regards!

          Err… what does it have to do with the topic? If everything started with Tomb Raider, and the problem of that game is the graphics engine, nothing to do with physics.

          Anyway, Havok so far has not done anything that was not seen with PhysX by cpu. Many people ignore to what extent this variant of physX is used, and to surprise some I'm going to give a title:

          Hitman: Absolution.

          Yes, the Gaming Evolved game that was bundled with AMD graphics. Curiosities of life.

          But let's say that people forget about physics, what loads the most in a game is the issue of the graphics engine in the cpu part that corresponds to it, and then at a similar distance both AI and physics (each one usually does not go beyond 15% of the performance used by a game).

          Bm4nB 1 Respuesta Última respuesta Responder Citar 0
          • Bm4nB Desconectado
            Bm4n @wwwendigo
            Última edición por

            I think it has become clear that games do not take advantage of CPUs, if the surplus was used under conditions to process physics or other processes it would be interesting, for example, taking advantage of new instructions like AVX would have a very large extra potential. Sometimes relatively simple things come out like FXAA that improve performance incredibly, more efficient physics that consume fewer resources would be a big step forward.

            hlbm signature
            ↳ Mis componentes

            1 Respuesta Última respuesta Responder Citar 0
            • A Desconectado
              andian
              Última edición por

              ¡Esta publicación está eliminada!
              1 Respuesta Última respuesta Responder Citar 0
              • F Desconectado
                fjavi @Sylver
                Última edición por

                @Sylver:

                I think it has more to do with the poor development of a game than the general need for CPU, because for example with GTA4 something similar happened to what happened with Tomb Raider, it was quite difficult to move it decently at maximum both on an i7 and on my i5, with a 660Ti and a crossfire of 5850 in each case, apart from the urgent need to have decent drivers and a couple of patches installed. Some recent games that are quite demanding graphically do not suffer from fps drops despite using the CPU at 100%, I have been able to verify this, although I still have to test Tomb Raider and Crysis 3, but it is for this reason, having verified it in other games, that I lean towards the game development factor as the cause of these problems. Because let's be realistic, although newer games demand a lot from both CPU and GPU, the most recent i5s are not to be sneezed at, and more so if they are overclocked, so pointing them out as "weak micros" is nonsense. It is also interesting to take into account other details such as memories, or mostly the hard drive... Because this influences directly, it is not the same to do the tests on a mechanical disk with high read/write speed than to do them on an SSD of the fastest in the market, to exemplify.

                In summary, there are many factors, but the games open this debate, and as such I believe they are the main ones pointed out.

                Regards

                The i5s are very good but for normal resolutions, not even graphics like the 670,680,7950,7970 are for 720p, they are graphics designed for more resolution, that's why with such low resolutions any CPU collapses, it's like when you put a 4way you must have a very fast CPU, but to play at normal resolutions 1050p,1080p the i5s are very good.

                The issue with GTA4 is because it does not use the processor 100% and loads it quite a lot, if you manage to get GTA4 to use 70% of the CPU and you have a good card it will be more stable.

                That game on pc runs with much more details than on console, I have it on Xbox and on pc and the graphic difference is beastly, on console they look like stick figures, it's not just low resolution it seems like they have very few polygons, even so on console it also scratches at 20 or 25 fps.

                regards

                @Fassou:

                Personally I have always thought that Havok is the best physics system in video games, and a new version was expected years ago (2007), but then they are bought by Intel :facepalm:, and until 2013 we have arrived to know the expected new version.

                For its part, a company that calls itself software, a fierce enemy of Intel, and which responds to the name of nVIDIA, has managed to improve the use of PhysX in video games in which it collaborates to unsuspected limits, which as we have seen in the recent Tomb Raider with collaboration of AMD, means that anyone who does not use the hardware for which they have "optimized" the game, will find a greater use of CPU, and worse graphics; or generalizing a lot, a worse optimized game.

                Salu2!

                It seems that Intel is thinking of presenting its new version of Havok soon according to this and other news I saw.

                Intel presentara en el GDC 2013 su nueva versión de Havok Physics - Benchmarkhardware

                Nvidia does have its own physics, but I think that since they allowed those physics effects by GPU that's when others have focused more on trying to get their own physics system, besides Nvidia seems to have already reached an agreement with Sony for the Ps4 to also support physx, if they do the same with the next Xbox maybe we will finally see unified physics, I hope that happens.

                It would be amazing if a library already be it Dx or opencl or directcompute could use all the physics engines whether by GPU or by CPU, to better utilize the hardware.

                regards

                Bm4nB 1 Respuesta Última respuesta Responder Citar 0
                • Bm4nB Desconectado
                  Bm4n @fjavi
                  Última edición por

                  @fjavi:

                  The i5s are very good but for normal resolutions, not even the graphics like the 670, 680, 7950, 7970 are for 720p, they are graphics designed for more resolution, that's why with such low resolutions any CPU collapses, it's like when you put a 4way you must have a very fast CPU, but to play at normal resolutions 1050p, 1080p the i5s are very good.

                  Aha so it only works with a normal CPU if you use 1080, it's no good with more resolution and with LESS either, jajaja. Look if you find a game that goes worse at 720 than at 1080 I'll applaud you.

                  The i5 that you call it, are four sandy/ivy bridge cores that are the most powerful on the market and at 3GHz you can only improve it either by adding the HT that you know well that almost no game uses, a couple more cores that also don't make good use, or by going up to 4.5GHz by OC which is usually what works best and works whatever the resolution.

                  About the tomb raider the big difference between pc and ps3 as we saw in a video in the games branch (Tomb Raider (2013) - HardLimit) is the HAIR… And in my opinion the detail of the objects in the distance, the rest looks great. That said I also tell you that it affects a lot where you play it, a 720 plasma is ideal for resolution and because it smooths out the jagged edges a lot, with the previous Tomb Raider even though I had it on pc I ended up playing it on the TV and it looked much better.

                  hlbm signature
                  ↳ Mis componentes

                  F 1 Respuesta Última respuesta Responder Citar 0
                  • F Desconectado
                    fjavi @Bm4n
                    Última edición por

                    @Bm4n:

                    Aha, I mean, it only works with a normal CPU if you use 1080, it doesn't work with higher resolution and not with LOWER either, jajaja. See if you find a game that runs worse at 720 than at 1080 I'll applaud you.

                    The i5 that you call it, are four cores sandy/ivy bridge which are the most powerful on the market and at 3GHz you can only improve it either by adding HT which you know that almost no game uses, a couple more cores that also don't make good use of, or by going up to 4.5GHz by OC which usually works best and works regardless of the resolution.

                    About tomb raider the big difference between pc and ps3 as we saw in a video in the games branch (Tomb Raider (2013) - HardLimit) is the HAIR… And in my opinion the detail of the objects in the distance, the rest looks great. That said I also tell you that it affects a lot where you play it, a 720 plasma is ideal for resolution and because it smooths out the jagged edges a lot, with the previous Tomb Raider even though I had it on pc I ended up playing it on the TV and it looked much better.

                    Well I refer to resolutions higher than 1050, the more resolution the better the card loads and the better it runs as long as it doesn't have very low fps, that i5 may be an SB but at such low resolution it will encounter games that will see many fps and notice microstuttering, because the graphics may have significant drops in load.

                    Try an SLI of 580 for example and play FC2 at 720p to see if it's true that it runs better or has a careful MS and perhaps you'll see many fps, but it's clear that the load of the cards will drop below 50% at many moments, while at higher resolution it won't possibly drop below 80%, it's not all about more fps it's how the cards work.

                    You put a 295 in a Q6600 with an X48 and put those resolutions and it's directly disgusting to play like that, on that platform even at 1080p that card runs poorly, if you lower the resolution more directly it's better to play with a 275, although of course it will depend on the game.

                    That's what I'm getting at, it's not all about more fps, it also greatly influences how the card works at load, if the card is at 90% at one moment and drops to 45% it will give a very bad feeling, it's not the same when vsync is applied and the card maybe only needs to work at 60% but stable.

                    He commented on games that I would like to see how they run, to see if he gives us his opinion on Crysis, Farcry 3, hitman or Max payne 3, those I'm interested in seeing if they run well or not and I'm interested in seeing what minimum fps they have, especially at what load the card runs.

                    1 Respuesta Última respuesta Responder Citar 0
                    • W Desconectado
                      wwwendigo @Bm4n
                      Última edición por

                      @Bm4n:

                      Yo antiguamente entendía que el CPU limitara en juegos tipo estrategia que manejaban mucha info para las IA que no tenía que ver con cálculos gráficos. Pero a día de hoy si un juego no se contenta con un procesador como los actuales que pueden pasar de 100GFlops es completamente absurdo. Estos juegos tipo Borderlands, Tomb Raider es culpa de los desarrolladores que no han optimizado un cuerno, en muchos casos porque son hechos pensando en consolas y se le añade otro problema como les pasa a Crysis o Metro que ponen unas configuraciones tope exageradas quizas pensando futuro o sinceramente PUBLICIDAD.

                      Lo que pasa con la carga del CPU de Tomb Raider es lo mismo que pasa si pones a funcionar el SuperPI, realmente es un hilo de proceso que en vez de ir a parar a un núcleo se alterna entre los 4, si en el administrador de tareas pones que se a afine a un nucleo verías una carga del 100% en uno de los núcleos obteniendo el mismo resultado. En Tomb Raider poner el LOD a tope no es aceptable, con lo cual lo bajas y juegas normalmente, a veces también es culpa nuestra estar obsesionados con los ajustes más altos.

                      De todas en un caso normal, cosas raras como las que comentamos aparte, la limitación que le pondría el CPU a la gráfica (o el cuello de botella) sería algo así, una vez alcanza la potencia que necesita el juego la subida de FPS se estabiliza.

                      Mira, yo de programar sé un poco (curro), así que te puedo decir que a diferencia de lo que piensa mucho usuario de foro o de juegos, en absoluto es trivial crear un programa multihilo que tenga A SU VEZ cada subsistema no en un único hilo, sino en varios, y que además haga un buen reparto de recursos y uso de cada core presente. Lo que pasa en Tomb Raider es lo que pasa en mil juegos, y es que el subsistema gráfico va al completo en un único hilo.

                      Pocos juegos tienen este subsistema paralelizado entre varios hilos, en teoría se puede hacer pero no es un asunto trivial.

                      El problema es que la situación que tú pones ocurre "normalmente" pero no siempre, porque de la misma forma que hay escenas que a nivel gráfico son mucho más costosas para la gpu y produce una bajada de fps, hay otras situaciones que pueden llevar a lo mismo a la cpu, aunque la escena en sí para la gráfica sea trivial o muy normal.

                      Ejemplos, todos los que te he puesto incluido el Tomb Raider, Borderlands, etc. Añade otro a tu lista, Starcraft II, que usa multihilo y aún no tengo claro qué subsistema es el que se "sobrecarga" (motor gráfico, IA, etC), pero muchas veces se ve que la gráfica va a medio gas y tienes en plena partida variaciones de 30 a 45 fps en ciertos momentos.

                      Que en este último caso es jugable de todas formas, pero sí se nota algo esto. Están ocurriendo mil veces este tipo de problemas en cantidad de juegos, y muchas veces no son sólo un momento puntual, son fases enteras o el juego completo (Dead Rising 2).

                      NO son situaciones donde el rendimiento gráfico limite, porque los casos dichos son juegos relativamente normales (excepto Tomb Raider), el rendimiento en este caso está limitado por la cpu y el subsistema concreto del juego que limita el rendimiento de todo lo demás (dado que cada subsistema se "sincroniza" en un juego miltihilo para actualizar el "estado" del juego cada X tiempo, todos los subsistemas están limitados por el más lento o que más tarda en hacer sus tareas).

                      O sea, que esas gráficas son muy bonitas pero no representan la realidad en multitud de juegos, y si un i5 con Oc es capaz de atragantarse con un juego, con su IPC y frecuencia a raudales, es que este juego, esté mal o bien programado (que ya digo que no es lo que mucha gente piensa lo de explotar el rendimiento en MT), en este juego el límite es la cpu.

                      Llana y claramente. Y NO, 100 GFlops no tienen nada que ver con el rendimiento en juegos de una cpu, porque no se trata de machacar unas matrices enormes a base de AVX que es una tarea relativamente simple de paralelizar.

                      Los juegos en absoluto son tareas tan simples, en cada uno de sus subsistemas, y más marca el rendimiento sus capacidades de ejecución avanzadas que el puro machaque de datos (ejecución especulativa, prefetch y funcionamiento de cachés y memoria, etc). O sea, que para nada "cosas tan raras".

                      PD: Por cierto Bm4n, si tienes algo que comentar sobre gente y sus opiniones, hazlo por aquí. Ya sabes a qué me refiero.

                      Saludos.

                      –--

                      Fjavi:

                      Estás diciendo cosas "muy raras" de dios... a ver si te vas a estar liando. :troll:

                      SylverS Bm4nB 2 Respuestas Última respuesta Responder Citar 0
                      • SylverS Desconectado
                        Sylver Veteranos HL @wwwendigo
                        Última edición por

                        And if the hard drive is practically the component on which the fluidity of the software on a computer depends the most… why doesn't it appear in this debate?

                        Greetings

                        >> i7-2600K Sandy Bridge @4.4GHz || Noctua NH-D14 || ASRock Z77 Extreme4 || 4x8Gb G.Skill Ripjaws X DDR3 1600MHz || XFX RX 5700 XT 8Gb || SSD Samsung 850 PRO 256Gb & 850 EVO 500Gb || WD Caviar Green 1Tb || Barracuda 1Tb || Corsair TX650 V2 || M-Audio Fast Track Pro || KRK RP8 RoKit G3 || BenQ GW2750 27"
                        >> Athlon 64 X2 5600+ Brisbane @2.9GHz || Gigabyte GA-M61PME-S2 || 2x2Gb DDR2 Kingston 800MHz || Sapphire Radeon HD 5850 Xtreme 1Gb || Maxtor 320Gb SATA2 || OCZ ModXStream 500W Modular || TEAC PowerMax 120/2 || Acer X243w 24"
                        >> Intel Core2Duo E6600 Conroe @2.4GHz || Asus P5N32-SLI SE DELUXE || 2x1Gb DDR2 Kingston 800MHz || Asus nVidia GeForce 9800GT 1Gb GDDR3 || Seagate Barracuda IDE 80Gb 7200RPM || Linkworld LPK12-35 450W

                        W Y 2 Respuestas Última respuesta Responder Citar 0
                        • W Desconectado
                          wwwendigo @Sylver
                          Última edición por

                          @Sylver:

                          And if the hard drive is practically the component that the fluidity of the software on a computer depends on the most... why doesn't it appear in this debate?

                          Regards

                          Because a good program will avoid being left hanging, and will either do initial and unique loads of mappings, or stream the mapping in the background BEFORE it needs the data. It's not usually a problem, and when it is, a good SSD fixes it.

                          On the other hand, the CPU issue is more volatile and always important in every game, you can't have an athlon x2 and a GTX Titan and have the games run well, to make a hyperbole.

                          SylverS 1 Respuesta Última respuesta Responder Citar 0
                          • Bm4nB Desconectado
                            Bm4n @wwwendigo
                            Última edición por

                            @__wwwendigo__ Then we have the same opinion, I don't know what we are arguing about. The only thing I haven't said is that it's a simple thing, otherwise everyone would do it, but the issue is that it's really necessary for games to optimize current resources. I think my opinions are very clear, but if you want me to clarify more just ask ?

                            @__fjavi__ The first time I saw about microstutter was with the issue of multiple graphics, which seems like they had a problem with the division of labor and it was also seen that even if they showed for example 60FPS, in reality much fewer were shown on the screen. But it seems that in certain games even with simple configurations they repeatedly have lags when it comes to showing frames. And then there are the FPS drops of all time.

                            It is very possible that with dual GPU graphics or multiple graphics you have problems if you don't use a good CPU, I don't deny that, but in general there will always be less load for graphics at lower resolutions.

                            hlbm signature
                            ↳ Mis componentes

                            W F 2 Respuestas Última respuesta Responder Citar 0
                            • SylverS Desconectado
                              Sylver Veteranos HL @wwwendigo
                              Última edición por

                              @wwwendigo:

                              Because a good program will avoid being left hanging by a hair, and will either do initial and unique map loads, or stream the map in the background BEFORE needing the data. It's not usually a problem, and when it is, a good SSD fixes it.

                              On the other hand, the CPU issue is more volatile and always important in every game, you can't have an athlon x2 and a GTX Titan and have games run well, just to make a hyperbole.

                              Bestial hyperbole of all hyperboles...

                              But now that you mention it, I have an Ahtlon X2 next to which I had an 5850 Xtreme. I didn't play at maximum settings for GTA IV but with almost everything on high and at 1280x1024, and the truth is that I didn't notice any instability in the fps or any sudden drops in load. The thing is that at first it did happen, with old drivers and without patching the game, I had a very, very bad time... But then I patched to fix Rockstar's misstep and updated drivers (and they were still the 12.11 which is saying something) and stability came. The variation was minimal, between 3 and 6 frames each time, except for some odd spikes where they dropped 10 or more due to background programs or punctual graphics loads with a lot of action, but generally it was pretty fluid, although I wasn't getting many fps on average, because with that equipment and so little RAM and such, it's normal...
                              Too bad I don't have the 5850 here anymore, because if I did, I would test it now to see what results are obtained, especially now that catalyst 13.1 has just come out and I haven't been able to test it on this equipment.

                              Regards

                              >> i7-2600K Sandy Bridge @4.4GHz || Noctua NH-D14 || ASRock Z77 Extreme4 || 4x8Gb G.Skill Ripjaws X DDR3 1600MHz || XFX RX 5700 XT 8Gb || SSD Samsung 850 PRO 256Gb & 850 EVO 500Gb || WD Caviar Green 1Tb || Barracuda 1Tb || Corsair TX650 V2 || M-Audio Fast Track Pro || KRK RP8 RoKit G3 || BenQ GW2750 27"
                              >> Athlon 64 X2 5600+ Brisbane @2.9GHz || Gigabyte GA-M61PME-S2 || 2x2Gb DDR2 Kingston 800MHz || Sapphire Radeon HD 5850 Xtreme 1Gb || Maxtor 320Gb SATA2 || OCZ ModXStream 500W Modular || TEAC PowerMax 120/2 || Acer X243w 24"
                              >> Intel Core2Duo E6600 Conroe @2.4GHz || Asus P5N32-SLI SE DELUXE || 2x1Gb DDR2 Kingston 800MHz || Asus nVidia GeForce 9800GT 1Gb GDDR3 || Seagate Barracuda IDE 80Gb 7200RPM || Linkworld LPK12-35 450W

                              1 Respuesta Última respuesta Responder Citar 0
                              • W Desconectado
                                wwwendigo @Bm4n
                                Última edición por

                                This post is being processed/translated. The original version will be shown:

                                @Bm4n:

                                @__wwwendigo__ Entonces tenemos la misma opinión, no se que estamos discutiendo. Lo único que no he dicho es que sea algo sencillo, sino todos lo harían, pero el tema es ese que es realmente necesario que los juegos optimicen los recursos actuales. Mis opiniones creo que quedan muy claras, pero vamos si quieres que aclare más solo pregunta 😉

                                @__fjavi__ yo la primera vez que vi lo del microstutter era con el tema de multiples gráficas, que parece que tenían problema en la división del trabajo y también se había visto que aunque mostraban por ej. 60FPS realmente en pantalla se mostraban muchas menos. Pero se ve que en ciertos juegos aun con configuraciones simples tienen reiteradamente lags a la hora de mostrar frames. Y luego están los bajones de FPS de toda la vida.

                                Es muy posible que con graficas de doble GPU o varias gráficas tengas problemas si no usas un buen CPU, eso no te lo niego, pero en general siempre habrá menos carga para los gráficos a menor resolución.

                                El tema es que mucha gente piensa que es fácil hacer uso de sistemsa multicore, y aunque sea necesario, por la parte que me toca yo comprendo los problemas y retos que se encuentran.

                                Es por eso que yo a la hora de recomendar cpus siempre he apostado, para usos como juegos y demás, priorizar primer el rendimiento por núcleo, y después de esto el rendimiento conjunto contando el número de cores. Los Quads llevan tiempo entre nosotros y siguen sin aprovecharse eficientemente, y no es sólo por culpa de los "ports de consolas" (XBOX 360, tres núcleos y 6 hilos, PS3, 1+6 núcleos (para la aplicación) y 26 13 hilos simultáneos manejables), si fuera por esto llevarían mucho tiempo usándose bien aunque fuera con gráficos DX9. Es que el problema es peliagudo.

                                Por eso me asombra la fe que profesa la gente con los sistemas con más cores aún, y con las nuevas consolas con cpus que tienen un rendimiento por core muy bajo (baja frecuencia, IPC normalito, con suerte) aunque tenga un buen lote para comenzar. Y por eso digo que nunca se descuide la cpu, porque no hay nada más frustante que tener una gráfica de 400€ y ver que tu cpu de 175€ aún con OC hay situaciones donde se queda un poco corta (hago ejemplo con mi caso).

                                Pero vamos, que no hay discusión sobre el tema. Pero ya te digo que el problema es peliagudo y de hecho más de una vez he tenido curiosidad por él pero nunca me he metido en ese tipo de berenjenales porque realmente no me "competen" (por lo menos no hasta ahora), pero la curiosidad más de una vez me llevó a investigar sobre estos temas.

                                En cierta forma las cpus están limitando tanto o más que la propia gráfica el diseño de juegos, porque a diferencia de las gráficas, el arco de rendimientos de cpus es más estrecho, y por tanto se pueden hacer menos "florituras" por la parte que les toca. Una de las razones para que la IA en juegos sea básicamente la misma usada en juegos de hace 10 o 15 años aún, o se tire a lo fácil de escenas scriptadas.

                                Bm4nB 1 Respuesta Última respuesta Responder Citar 0
                                • Bm4nB Desconectado
                                  Bm4n @wwwendigo
                                  Última edición por

                                  This post is being processed/translated. The original version will be shown:

                                  El futuro pasa por los multinucleo sin lugar a dudas, AMD por ejemplo está trabajando en hacer trabajar múltiples núcleos en un solo hilo, vamos al contrario del HT de Intel. Esto es tremendamente interesante, porque como sabrás en la ejecución de un juego hay cantidad de procesos con lo que teóricamente procesarlos simultáneamente podría mejorar mucho el rendimiento, claro que entretejer todo eso "manualmente" como dices es complicado, depende de los compiladores, lenguajes, programas, etc. que se usan a la hora de programar el permitir optimizar esto.

                                  Imaginemos que podemos procesar independientemente el sistema de IA, iluminación, fisicas, cálculos de distancias, el HUD, etc. y ahora dedicar a este proceso porque consume más 4 núcleos de "potencia", a este solo uno, al otro dos, etc. Creo que eso es a lo que se aspira con la tendencia que está tomando el mundo de los procesadores.

                                  No estoy de acuerdo con que el margen de los CPUs sea muy corto, simplemente a nivel de potencia de calculo por ciclo de reloj se ha avanzado muchísimo, aquí algunos recordamos cuando el SuperPI de 1MB se pasaba en muchos minutos y ahora tarda menos de 10". A nivel de pipeline se ha experimentado con todo, los predictores avanzaron muchisimo también, los caches y su uso compartido/independiente, sets de instrucciones, etc. los anchos de banda a memoria bus central y periféricos que ahora son prácticamente directos, etc. Es realmente impresionante la capacidad que tienen, lamentablemente resulta que para tareas cotidianas resultan igual de buenos un ARM, quizás en el futuro veamos CPUs hibridos con núcleos de diferente tipo dedicados a diferentes tipos de calculo con diferentes relojes.

                                  Aunque el problema yo creo que es que esa potencia no les sirve de nada a los programadores porque no tienen las herramientas para explotarlo, de ahí que ahora mismo para ver la velocidad de un CPU tengas que sacar el cronometro en algoritmos como la descompresión de ZIPs o la compresión de video…

                                  El paralelismo en si muchas veces es necesario, un CPU que pueda interconectarse con el GPU cosa que también esta en el punto de mira de AMD sería otro gran avance y logicamente necesita de usar multiples núcleos.

                                  Y como veras aqui siempre recomendamos montar equipos equilibrados, un CPU barato con una gráfica carísima es un desperdicio. El buen rendimiento de un PC está en el equilibrio entre los componentes.

                                  hlbm signature
                                  ↳ Mis componentes

                                  W 1 Respuesta Última respuesta Responder Citar 0
                                  • W Desconectado
                                    wwwendigo @Bm4n
                                    Última edición por

                                    This post is being processed/translated. The original version will be shown:

                                    @Bm4n:

                                    El futuro pasa por los multinucleo sin lugar a dudas, AMD por ejemplo está trabajando en hacer trabajar múltiples núcleos en un solo hilo, vamos al contrario del HT de Intel. Esto es tremendamente interesante, porque como sabrás en la ejecución de un juego hay cantidad de procesos con lo que teóricamente procesarlos simultáneamente podría mejorar mucho el rendimiento, claro que entretejer todo eso "manualmente" como dices es complicado, depende de los compiladores, lenguajes, programas, etc. que se usan a la hora de programar el permitir optimizar esto.

                                    Imaginemos que podemos procesar independientemente el sistema de IA, iluminación, fisicas, cálculos de distancias, el HUD, etc. y ahora dedicar a este proceso porque consume más 4 núcleos de "potencia", a este solo uno, al otro dos, etc. Creo que eso es a lo que se aspira con la tendencia que está tomando el mundo de los procesadores.

                                    No estoy de acuerdo con que el margen de los CPUs sea muy corto, simplemente a nivel de potencia de calculo por ciclo de reloj se ha avanzado muchísimo, aquí algunos recordamos cuando el SuperPI de 1MB se pasaba en muchos minutos y ahora tarda menos de 10". A nivel de pipeline se ha experimentado con todo, los predictores avanzaron muchisimo también, los caches y su uso compartido/independiente, sets de instrucciones, etc. los anchos de banda a memoria bus central y periféricos que ahora son prácticamente directos, etc. Es realmente impresionante la capacidad que tienen, lamentablemente resulta que para tareas cotidianas resultan igual de buenos un ARM, quizás en el futuro veamos CPUs hibridos con núcleos de diferente tipo dedicados a diferentes tipos de calculo con diferentes relojes.

                                    Aunque el problema yo creo que es que esa potencia no les sirve de nada a los programadores porque no tienen las herramientas para explotarlo, de ahí que ahora mismo para ver la velocidad de un CPU tengas que sacar el cronometro en algoritmos como la descompresión de ZIPs o la compresión de video…

                                    El paralelismo en si muchas veces es necesario, un CPU que pueda interconectarse con el GPU cosa que también esta en el punto de mira de AMD sería otro gran avance y logicamente necesita de usar multiples núcleos.

                                    Y como veras aqui siempre recomendamos montar equipos equilibrados, un CPU barato con una gráfica carísima es un desperdicio. El buen rendimiento de un PC está en el equilibrio entre los componentes.

                                    No sé de dónde sacas eso, pero que sepas que AMD no tiene ni un sólo producto en el mercado que haga esto, y tampoco lo hará en las siguientes generaciones a Piledriver.

                                    De hecho eso se rumoreó mucho con Bulldozer debido a opiniones indocumentadas, antes de su lanzamiento. Dije que era un disparate, me apedrearon por decir eso (y otras cosas sobre su rendimiento) y tras el lanzamiento muchos tuvieron que pedir disculpas.

                                    Sobre el margen de las cpus, es más escaso porque las gpus son más variables en sí, el rendimiento de hace 5 años por gpu era muy distinto al actual, y el rendimiento de una cpu de hace 5 años sin embargo no es tan distinto a las actuales. Por tanto como la potencia de cpu no cambia tanto no te puedes permitir el lujo de implementar algoritmos de IA muy avanzados, físicas equivalentes a PhysX GPU pero por cpu, etc.

                                    Por último, aunque esto sí lo está haciendo AMD, dudo mucho que sirva para "todo", porque precisamente las gráficas están demostrando que no son buenas para muchos problemas complejos a pesar de su potencia, ya que mientras son buenas "machacando matrices" no se llevan bien con código condicional y otros usos típicos de programas también intensivos.

                                    Esto es, AMD lo que pretende es desplazar la falta de potencia en IPC y coma flotante de sus núcleos a una gpu integrada y bien comunicada con la cpu, de forma que sea casi una extensión de la cpu más que un añadido pegado en la die pero realmente distinto.

                                    Esto puede ser útil para acelerar alguna cosa como físicas de segundo orden (las típicas que hace PhysX GPU), cálculo matricial, incluso puede venir bien en algunas etapas del subsistema gráfico que ejecuta la propia cpu. Pero no va a servir ni remotamente para "todo", eso debería quedar claro.

                                    Hoy en día el soft GPGPU deja mucho que desear en la mayoría de programas que están fuera del mundo científico, por multitud de razones. Y no es porque las librerías ya no estén maduras.

                                    Lo que hace falta es mejores cores con más ipc y más frecuencia, todo esto posible pero que no se hace por la simple razón de que AMD está en aprietos e intel aprovecha para relajarse de una forma casi obscena con sus productos.

                                    Bm4nB 1 Respuesta Última respuesta Responder Citar 0
                                    • Bm4nB Desconectado
                                      Bm4n @wwwendigo
                                      Última edición por

                                      This post is being processed/translated. The original version will be shown:

                                      Cuando el rio suena… desde hace años se habla que era proyecto de AMD mejorar el proceso de un solo hilo en procesadores de varios núcleos, no he dicho que ya lo haya, pero por los pasos que lleva parece que por ahí van los tiros. Más que un disparate es lo lógico.

                                      No se porque dices que no ha avanzado tanto cuando en realidad si lo han hecho, lo que pasa es que a veces nos falta memoria, y eso que no se explotan bien sus capacidades, seguro que el tiempo en idle de un CPU ha aumentado muchísimo.

                                      El aumentar la frecuencia de los núcleos va muy atado al tamaño y tipo de fabricación, se puede mejorar el IPC aunque son realmente eficientes y tampoco se puede hacer magia con el si no hay unas instrucciones para aprovechar las capacidades. La alternativa es usar el multiproceso o mejor dicho aprovecharlo, es como el paso a 64bits, tardará años pero acabará llegando.

                                      Intel ahora se dedica a ganar dinero, no hará grandes inversiones hasta que lo necesite, lógico. Y hasta a mi me parece bien, ahora mismo yo no me plantearía comprar un procesador con más velocidad ni con más núcleos, solo lo compraría si el IPC ha mejorado y rinde mejor porque se que del resto habrá pocas cosas que donde sacarle provecho.

                                      hlbm signature
                                      ↳ Mis componentes

                                      W 1 Respuesta Última respuesta Responder Citar 0
                                      • W Desconectado
                                        wwwendigo @Bm4n
                                        Última edición por

                                        This post is being processed/translated. The original version will be shown:

                                        @Bm4n:

                                        Cuando el rio suena… desde hace años se habla que era proyecto de AMD mejorar el proceso de un solo hilo en procesadores de varios núcleos, no he dicho que ya lo haya, pero por los pasos que lleva parece que por ahí van los tiros. Más que un disparate es lo lógico.

                                        No se porque dices que no ha avanzado tanto cuando en realidad si lo han hecho, lo que pasa es que a veces nos falta memoria, y eso que no se explotan bien sus capacidades, seguro que el tiempo en idle de un CPU ha aumentado muchísimo.

                                        El aumentar la frecuencia de los núcleos va muy atado al tamaño y tipo de fabricación, se puede mejorar el IPC aunque son realmente eficientes y tampoco se puede hacer magia con el si no hay unas instrucciones para aprovechar las capacidades. La alternativa es usar el multiproceso o mejor dicho aprovecharlo, es como el paso a 64bits, tardará años pero acabará llegando.

                                        Intel ahora se dedica a ganar dinero, no hará grandes inversiones hasta que lo necesite, lógico. Y hasta a mi me parece bien, ahora mismo yo no me plantearía comprar un procesador con más velocidad ni con más núcleos, solo lo compraría si el IPC ha mejorado y rinde mejor porque se que del resto habrá pocas cosas que donde sacarle provecho.

                                        No, no es lógico. Hacer eso implicaría mecanismos de comunicación y sincronización entre cores en distintas de sus etapas que complicarían tanto el diseño hasta hacerlo ridículo, ya que una simple implementación de un "supercore" (fusión de recursos real de X cores) con soporte de SMT hace mejor este papel.

                                        Ya te digo que este rumor es muy antiguo, se dijo mucho que eso era lo que haría Bulldozer (la confusión la creó la propia AMD, recuerdo alguna presentación añeja y muy ambigua), y desde que salió no volvió a hablarse en absoluto ni de lejos de algo así (por parte de AMD).

                                        Así que seguramente no se hará, porque además de parecer un poco disparatado (ojo que no digo que imposible, sólo que yo no le veo sentido alguno), hay caminos para mejorar el IPC de verdad más directos que coger, fusionar un par de etapas en unos cores que reduces desde los K10, y después tardar varias generaciones en ¿comunicarlos? para conseguir un rendimiento… ¿poco mejor que el que tenían en origen, qué IPC podría tener algo así?

                                        No mucho ya, un módulo de AMD de 2 cores tiene 4 decoders, eso limita el número de instrucciones por ciclo que puede ejecutar (x86), y en absoluto es mejor que lo que se puede hacer ya en otras arquitecturas que no han recurrido a esa maniobra rocambolesca.

                                        AMD ha apostado (posiblemente mal) a simplificar cores para intentar integrar muchos en una sóla die (aunque esto no le ha salido del todo bien mirando tamaño de die y nº de transistores usados), es un buen argumento para el departamento de marketing, pero todos los problemas de rendimiento que incluso con Piledriver siguen teniendo se deben a esto.

                                        Esta ruta iniciada con Bulldozer no acaba con ningún "SMT inverso" como el que describes. Con suerte acabarán haciendo cores relativamente rápidos y en gran número, si es que arreglan por el camino las cagadas que cometieron. Pero... fusión de cores para un mismo hilo, ni de coña:

                                        http://www.xbitlabs.com/news/cpu/display/20121122235832_AMD_s_Steamroller_High_Performance_Core_Slips_to_2014_Excavator_May_Face_Delays.html

                                        El diseño de Steamroller en absoluto apunta en esa dirección, y lo poco que se sabe de Excavator tampoco, en principio.

                                        Bm4nB 1 Respuesta Última respuesta Responder Citar 0
                                        • Bm4nB Desconectado
                                          Bm4n @wwwendigo
                                          Última edición por

                                          This post is being processed/translated. The original version will be shown:

                                          Pues si el rumor data de cuando AMD comenzaba con el bulldozer, evidentemente el pipeline no puedes compartirlo pero lo que ha hecho AMD ha sido compartir el descodificador y el cache. Por desgracia no lo hicieron nada bien, porque esos dobles núcleos no eran realmente el doble de potentes en muchos aspectos como en la FPU. Y el marketing de llamar 2 núcleos a lo que realmente es 1 no le ha favorecido, pero pensándolo desde otro punto de vista lo que han hecho es coger 2 núcleos y hacer que rindan como 1 de más potencia de calculo.

                                          Pero bueno yo cuando lo vi pese a la decepción, me quedé con la sensación que eso pero bien hecho y mejorado podría ser realmente interesante. A veces grandes ideas comienzan con mal pie, quien sabe.

                                          A mi entender ahí está el punto en mejorar el balanceo de las cargas, a nivel de programación hay soluciones que supongo se pueden mejorar, pero si a nivel de hardware lo facilitas se podría lograr que varios núcleos funcionen como uno de mayor potencia de calculo. Logicamente como bien dices, eso no lo es todo y no puedes pretender que eso sea todo el avance, hay que seguir mejorando el IPC. Pero no podemos concebir un multi procesador como cuando Intel empezó haciendo sus "multi núcleo" pegando literalmente dos procesadores en un DIE que no compartían ni el L3 como quien dice…

                                          PD. De Steamroller no he leido apenas, le echaré un ojo, aunque sinceramente no le tengo ninguna esperanza quizás para la escarbadora nos llevemos una sorpresa hasta entonces lo dudo.

                                          PD2. Y no quiero decir que una operación se pueda realizar en dos núcleos a la vez que sería imposible, pero sabemos que al ejecutar varias operaciones en un hilo nunca va ser 100% eficiente a menos que sea un calculo puro y duro, el HT lo que hace es rellenar los huecos que quedan en la ejecución. Lo que yo digo es que si la cola (fetch, predictor, decoder) pudiera distribuir más eficientemente las operaciones en vez de en un FPU/ALU en varios mejoraría el rendimiento.

                                          hlbm signature
                                          ↳ Mis componentes

                                          W WargreymonW 3 Respuestas Última respuesta Responder Citar 0
                                          • Y Desconectado
                                            yellopendo @Sylver
                                            Última edición por

                                            ¡Esta publicación está eliminada!
                                            1 Respuesta Última respuesta Responder Citar 0
                                            • 1
                                            • 2
                                            • 3
                                            • 1 / 3
                                            • First post
                                              Last post

                                            Foreros conectados [Conectados hoy]

                                            0 usuarios activos (0 miembros y 0 invitados).
                                            febesin, pAtO,

                                            Estadísticas de Hardlimit

                                            Los hardlimitianos han creado un total de 543.5k posts en 62.9k hilos.
                                            Somos un total de 34.9k miembros registrados.
                                            roymendez ha sido nuestro último fichaje.
                                            El récord de usuarios en linea fue de 123 y se produjo el Thu Jan 15 2026.