Core 2 Quad
-
Lo de meter tantos cores en un unico chip de silicio es sencillamente porque, utilizando una tecnología de integracio de 65 nm o incluso 45 nm que Intel utilizara muy pronto, hay muuuuuuucho espacio donde meter cosas. Hay una serie de unidades funcionales (BTB, TLB,etc) que tienen que estar porque SI, debido fundamentalmente al soporte que aun se da al juego de instrucciones 8086; pero si lo pensamos bien, si en lugar de ejecutar una intruccion (procesador monocore) puedo ejecutar 4 (Core 2 Quad) mejor que mejor.
Pensad que los supercomputadores estan formados por incluso miles de procesadores trabajando en paralelo, y ahora nos ofrecen procesadore que son como 4 (con limitaciones claro). Los desarrolladores del hardware sacan novedades que por supuesto en un primer momento no tienen covertura por parte del software, pero eso es problema del software no del hardware.Pensad en unos años atras, por ejemplo en los Pentium II o K6II, es que acaso no hemos avanzado en velocidad de procesamiento????? Pues esto es lo mismo, lo que pasa es que ahora pueden meter un monton de cosas en un solo chips y antes no. Por poner un ejemplo, los primeros Athlon K7 tenian la cache L2 interna (que no es lo mismo que integrada) y al pasar a utilizar una tecnologia de integracion de 0.18um metieron la L2 interna.
Por mi parte todas estas cosas, son bien recibidas porque en mayor o menor timepo el SW les dará soporte.
-
Yo no he hecho ningun tipo de ingenieria electronica pero.. Alguien me explica a grosso modo porque no se puede pasar de los 5Ghz? y aun asi… que yo sepa lo máximo de Ghz que ha llegado a tener un procesador (con un solo nucleo) no pasa de 4 no?
Para entender porque ahora los fabricantes de micros comerciales para pcs no pasan de los 5GHz no te hace falta solo una ingeniería electrónica necesitarías algo más
Simplemente con las actuales arquitecturas de micros no pueden llegar a semejantes velocidades.
Pero fijate que eso siempre es hablando en terminos comerciales porque IBM presentaba el otro dia un micro a 500GHz, poca cosa, eso si enfriandolo muchisimo. Tambien no hace mucho se hablaba de una forma de enfriar los procesadores revolucionaria. Total que cuando esa tecnologia en desaroyo avance veremos mejoras, y si actualmente no tenemos micros a mas de 5GHz solo es porque aun no sale rentable fabricarlos, refrigerarlos y porque seguramente tendrían un consumo demasiado alto.
PD. Estoy deacuerdo con Sergiman, no es la solución pero es algo muy favorable. Eso si si no le damos tiempo para que el software se optimice un poco nunca podremos sacar un rendimiento adecuado a nuestras maquinas. Demosle tiempo y confiemos en la ley de moore :risitas:
-
El motivo fundamental que permite aumentar la frecuencia de trabajo de un chip es la tecnoligia de integracion. A disminuir esta se disminuye el voltaje que es necesario aplicar a los transistores para conmuten, lo que implica que la cantidad de calor que desprende sea menor.
Por ejemplo, con los 90 nm que utiliza actualmente AMD no se puede llegar a los 4Ghz de frecuencia de trabajo sencillamente porque se quemaria el procesador en menos de un segundo debido al voltaje que habria que aplicarle para que sus transistores conmutasen. Para que te hagas una idea, es como si un seat ibiza lo quieres poner a 300Km/h; por muchas mejoras que le hagas al motorr, suspensiones, etc, el coche no esta hecho para ir a esa velocidad porque no tiene estabilidad, aerodinamicamente no puede, etc. Los diseños de los F1 no son porque si, para alcanzar esas velocidades hacen falta muchas cosas que por ejemplo hace 10 años no habia. -
El motivo fundamental que permite aumentar la frecuencia de trabajo de un chip es la tecnoligia de integracion. A disminuir esta se disminuye el voltaje que es necesario aplicar a los transistores para conmuten, lo que implica que la cantidad de calor que desprende sea menor.
Eso esta claro, un factor clave es la integración. Pero parecía que intel con la anterior arquitectura de micros esperaba poder llegar más lejos, gracias que pararon en el prescott o mas bien en el pentum D, porque no estaban alcanzando un rendimiento competitivo y eso que el cedar mill esta hecho con 65nm. Así que con el paso del tiempo parece que también tienen que cambiar su forma de hacer los micros y no solo llega con aplicar una mayor integración.
Ademas quien sabe puede que dentro de no mucho estemos usando procesadores fabricados para ser refrigerados bajo cero, nunca se sabe…
A lo que me refería con que se necesita algo mas para entenderlo, es que en un procesador comercial no se va a dejar de fabricar muchas veces porque sea inviable sino porque no saldria rentable o porque no seria competitivo. Solo los ingenieros de las compañias saben el porque desarroyan o no cierta tecnología. Por desgracia para la "gente de fuera" es muy dificil estar informados y actualizados respecto a estos asuntos.
-
Es fantástico poder tener un procesador a tropecientos petahercios con muchimegas de cache L4 y la repera de memorias DDR16, pero en el entorno doméstico es totalmente innecesario tener eso para mover un Firefox, un Ripper o un Dead or Alive. Incluso un AutoCad 8. Mientras no saquen SW que por lo menos hagan uso de varios núcleos a la vez (no ya que estén optimizados para dicho uso, que sería lo suyo, sino que por lo menos los usen!!), somos muchos los que seguimos pensando que pasamos de esta generación de HW, y esperamos ya a los Core Quad, las DDR3 y el DX10 (y ya veremos si no nos saltamos también esa).
Por otro lado, el salto natural del Core Quad será el Core Hexa, o sea 16 procesadores integrados. De hecho los Duo son un engendro que desaprovecha la mitad del silicio de cada chip, sólo porque comercialmente había que meter un salto intermedio entre los procesadores mononúcleo y los Quad. Meter ocho núcleos en un chip de silicio es otro engendro que desaprovechará nuevamente la mitad del chip. Otra cosa: por que no se ha desarrollado para los Core Duo un sistema similar al HT de los antiguos P4 (flanco de subida, flanco de bajada)? O si que existe? O nos lo van a vender en algún punto de los futuros stepping de Intel??
-
Es fantástico poder tener un procesador a tropecientos petahercios con muchimegas de cache L4 y la repera de memorias DDR16, pero en el entorno doméstico es totalmente innecesario tener eso para mover un Firefox, un Ripper o un Dead or Alive. Incluso un AutoCad 8. Mientras no saquen SW que por lo menos hagan uso de varios núcleos a la vez (no ya que estén optimizados para dicho uso, que sería lo suyo, sino que por lo menos los usen!!), somos muchos los que seguimos pensando que pasamos de esta generación de HW, y esperamos ya a los Core Quad, las DDR3 y el DX10 (y ya veremos si no nos saltamos también esa).
Por otro lado, el salto natural del Core Quad será el Core Hexa, o sea 16 procesadores integrados. De hecho los Duo son un engendro que desaprovecha la mitad del silicio de cada chip, sólo porque comercialmente había que meter un salto intermedio entre los procesadores mononúcleo y los Quad. Meter ocho núcleos en un chip de silicio es otro engendro que desaprovechará nuevamente la mitad del chip. Otra cosa: por que no se ha desarrollado para los Core Duo un sistema similar al HT de los antiguos P4 (flanco de subida, flanco de bajada)? O si que existe? O nos lo van a vender en algún punto de los futuros stepping de Intel??
Aqui el problema no es que esten sacando micros demasiado potentes, sino que los que estan sacando no rinden al 100% con la mayoria del software actual.
Teniendo en cuenta que este verano sacaron los Core 2 Duo, que unos 6 meses despues van a sacar los Quad y que Intel tiene previsto sacar un micro de 80 nucleos para el 2010 lo normal, si las espectativas se cumplen, es que cada poco mas de 6 meses se duplique el numero de nucleos en un micro. Teniendo en cuenta que no todas las aplicaciones se pueden beneficiar del multihilo, no porque no se sepa hacer sino por la naturaleza propia de la aplicacion y que aun cuando apenas existen aplicaciones que soporten 2 nucleos ya van a sacar micros con 4 y supuestamente dentro de aproximandamente 1 año aparezcan los de 8 nucleos, etc, etc, cuando todavia esta mas que verde la anterior "generacion" es donde radica la controversia en este asunto.
A mi me parece estupendo que saquen micros con miles de nucleos que hagan cualquier tarea en un instante, pero si no existe software para aprobechar ni la mitad, se sabe que es complejo programar para multihilo y que ciertas tareas no pueden dividirse ni siquiera en dos partes para ser procesadas, esos miles de cores no me sirven para nada, igual que un Quad Core no le va a servir para nada a nadie que no este acostumbrado a usar 4 aplicaciones que chupen recursos a la vez, o que fruto de la casualidad use el PC para hacer alguna tarea cuyo software ya este preparado para ello, igual que yo ahora el doble nucleo lo uso solo para dos cosas: convertir formatos con el Nero Vision y procesar SETI y se que hasta dentro de unos años no va a ser normal ver la mayoria del software con soporte para 2 nucleos, es decir, que yo en estos momentos para hacer la mayoria de las cosas que hago con un solo nucleo me sobraria (si me he comprado un dual core es porque en esta gama ya no venden otra cosa y se que dentro de una buena temporada voy a poder sacar todo el jugo al procesador, pero no ha sido porque necesite un dual core, ni porque supiera que un dual core me iba a ir mas rapido en un single core de las mismas caracteristicas)…
-
Es fantástico poder tener un procesador a tropecientos petahercios con muchimegas de cache L4 y la repera de memorias DDR16, pero en el entorno doméstico es totalmente innecesario tener eso para mover un Firefox, un Ripper o un Dead or Alive. Incluso un AutoCad 8. Mientras no saquen SW que por lo menos hagan uso de varios núcleos a la vez (no ya que estén optimizados para dicho uso, que sería lo suyo, sino que por lo menos los usen!!), somos muchos los que seguimos pensando que pasamos de esta generación de HW, y esperamos ya a los Core Quad, las DDR3 y el DX10 (y ya veremos si no nos saltamos también esa).
Por otro lado, el salto natural del Core Quad será el Core Hexa, o sea 16 procesadores integrados. De hecho los Duo son un engendro que desaprovecha la mitad del silicio de cada chip, sólo porque comercialmente había que meter un salto intermedio entre los procesadores mononúcleo y los Quad. Meter ocho núcleos en un chip de silicio es otro engendro que desaprovechará nuevamente la mitad del chip. Otra cosa: por que no se ha desarrollado para los Core Duo un sistema similar al HT de los antiguos P4 (flanco de subida, flanco de bajada)? O si que existe? O nos lo van a vender en algún punto de los futuros stepping de Intel??
Eso es verdad… por muy rápido que vaya el hardware, si no hay software que lo aproveche "pa' qué lo queremos??". Es que es muy difícil que haya software que aproveche el hardware que va saliendo a ritmo frenético.
PD: Felicidades Priscilo,
-
Hombre, se supone que cuando salgan a la luz todas esas prominencias, yá habrá mucho software aplicado, estamos en el principio de una nueva era informatica, y desde luego cuando todo eso llegue, la mayoria de los programas que actualmente estamos utilizando…..habrán pasado a la historia.
Nó me veo con 1 pepino de troprecientos mil euros, y 80 nucleos, para utilizar el nero, la verdad... :sisi: :sisi:, se supone que nuevos programas desarollados para tal efecto, colmarán el mercado y a la véz vaciarán nuestros bolsillos.
Y por parte de los programadores......ahóra es cuando comienzan a tener posibilidades de aprovechar en su medida todo el rendimiento que ofrece el nuevo hardware, lo cual anteriormente lo tenian limitado......veremos a ver como se comportan las compañias de desarollos de programas y juegos.
-
a mi lo que me escama es por que si una aplicacion no esta preparada para procesadores de doble nucleo, cuando ejecutamos una, el SO carga ambos procesadores, es algo que podemos ver todos los que tengamos un x2 c2d dual core y parece que pasa lo mismo con los quad, lo mas interesante es por ejemplo una aplicacion como el 3dmark01 o aquamark utilizando los mismo componentes salvo el procesador hay aumento de rendimiento si el software no esta preparado para ello, cuanto mas es curioso y mas viendo que pruevan un e6700 y el quad qx6700 que son dos nucleos e6700 juntos por asi decirlo si bien ya se decia que con estos test no se aprovecharia el multiproceso incluso con los doble nucleo, por lo que algo no cuadra ya me paso que teniendo porejemplo un 3200+ y 3800+x2 en tareas mono proceso si aumentaba el rendimiento cuado en si tienen la misma potencia para tratar un solo proceso 2ghz y la misma cache
ahora pongo los enlaces que no se porque no va la web de maximo
-
Hay ciertas mejoras HW que si que necesitan soporte por parte del HW para que notemos un incremento significativo, pero hay otras que por si solas hacen que las aplicaciones vayan mas rapido como por ejemplo una mayor cantidad de cache o una cache compartida entre los nucleos (un acierto por parte de intel). No teneis que mirar como aplicaciones como super pi corren muchiiiiiiisimo mas rapido en un Core 2 Duo que por ejemplo en un X2 de AMD. Esta mejora no solo es por esta cache L2 compartida en la que los nucleos pueden cooperar para realizar una misma instancia o thread mientras que los X2 ejecutan igual de rapido un solo super pi que dos (la perdida de rendimiento al ejecutar 2 super pi se debe a que hay dos accesos a memoria en lugar de una y eso penaliza).
Otra cosa es que todas estas mejoras sean utilizadas y aprobechadas por parte de la mayoria de usuarios que utilizan el pc para ofimatica, internet y escuchar musica; pero mucha gente si que les saca probecho.
-
aqui el enlace
http://www.maximopc.org/articulos/intel_core2quad_qx6700_parte_1_p3.html
solo me falta el que prueban con el aquamark que tampoco va :triston:
-
Hombre, 80 núcleos hará las delicias de ciertas tareas, donde el procesamiento en paralelo sea relevante.
.- Desencriptacion.
.- Renderización masiva. (recordais la pelicula del titanic, nosecuantos linux en paralelo.. )
.- Redes Neuronales
etc…Ahora hay que ver como evoluciona eso hacia el público de a pié.
Saludos.
-
aqui el enlace
http://www.maximopc.org/articulos/intel_core2quad_qx6700_parte_1_p3.html
solo me falta el que prueban con el aquamark que tampoco va :triston:
Amén de ser bastante curioso ( estaran optimizados para multihilo sin que los creadores lo sepan? ) piensa que a los gamers no nos atañe, ya que ni jugamos al 3dmark ni jugamos a 640x480
-
Hombre, 80 núcleos hará las delicias de ciertas tareas, donde el procesamiento en paralelo sea relevante.
.- Desencriptacion.
.- Renderización masiva. (recordais la pelicula del titanic, nosecuantos linux en paralelo.. )
.- Redes Neuronales
etc…Ahora hay que ver como evoluciona eso hacia el público de a pié.
Saludos.
No conozco a nadie que use el PC para desencriptacion, renderizacion masiva ni redes neurales. Ten en cuenta que esas tareas se realizan en centros de supercomputacion o estudios de cine.