Intel cava su propia tumba: DRM emebido en Pentuim D
-
Pues sí, podríamos instalar MacOS en lugar de Windows ¿no?
Saludos.
-
deebass Si he leido ya todas las noticas habidas y por haber y en ninguna se dice que se pase directamente a los x86 (solamente se rumorea). Aparte de que todo esto es un rumor y saldremos de dudas esta misma tarde. (por cierto esto ya existe en el Foro General ;))
Aun así no creo que Apple migrara todo a x86 por la sencilla razón de que no puede dejar a miles de usuarios tirados.
IBM, Motorola y Apple realizaron un consorcio para desarrollar los PPC, procesadores CISC… Los actuales Pentium y AMD son RISC... ¿Qué significa esto? Que si Apple pasara a x86 la liaría bien gorda:
1º Porque los procesadores RISC desde hace mucho tiempo ( o eso decían ) tendían a desaparecer por lo obsoletas que están esas instrucciones.
2º Apple Vs. Microsoft sería brutal, y posiblemente Apple saldría perdiendo. Hay que tener en cuenta que Apple básicamente las ganancias que tienen provienen del Hardware que venden... Así que no podría hacer nada frente a Microsoft.
3º Apple tiene muchas patentes de la tecnología PowerPC, y dado que una vez ya cambió de fabrica (antes Motorola) para pasar a IBM, posiblemente pueda pasar de IBM (por incumpliento de prestaciones en los G5 y por no abaratar los microprocesadores) a Intel.
Hace ya un año que Steve Jobs anunció un G5 a 3Ghz, a día de hoy todavía no ha visto la luz. Posiblemente eso se deba a que IBM ha estado muy centrado en terminar los nuevos microprocesadores CELL de Sony & Cia.
4º El soporte de software se iría literalmente al CARAJO. Un fabricante de software no va a desarrollar 3 o 4 versiones del mismo programa para abastecer a unos pocos usuarios. Con esto me refiero, por ejemplo a Adobe. Adobe no va a desarrollar/compilar una aplicación para x86 Windows, i64 Windows, x86 Mac OS y PowePC Mac OS...
De todas formas reitero, todo esto es un rumor que siempre ha existido, y ahora que se aproxima (esta misma tarde) el keynote de Steve Jobs se lanzo directamente que Apple posiblemente se pase a x86. En caso de que se hayan hecho negociaciones entre Apple e Intel ¿Por qué debe ser para pasar su PPC a x86? ¿Acaso no puede ser para los procesadores xScale para dispositivos portátiles? ¿O para implementar el WiMAX en sus nuevos portátiles? ¿O simplemente para que Intel fabrique los PPC que necesita Apple?
De todas formas si Apple quiere hacer el cambio, que lo haga... Pero no por haber vendido muchísimos Mac Mini crean que se pueden hacer con el mercado de las personas que usen PC. Más que nada, porque si sacan su S.O. ejecutable en x86 lo único que van a conseguir es que los pirateen hasta limites insospechados :triston:
De todas formas, posiblemente Apple introduzca algo parecido a DRM en sus ordenadores... Pero espero que no sea así.
Un saludo
-
Que un PC se convierta en un Mac. :sisi:
Menos mal que soñar es gratis y de momento está libre de patentes. ;D
-
Pues sí, podríamos instalar MacOS en lugar de Windows ¿no?
Saludos.
Supongo que Apple seguirá sacando X modelos en concreto y que solo será compatible con X hardware que lleven sus máquinas, es la ventaja del MacOS sobre Windows y Linux, que aparte de estar optimizado para X hardware en concreto no tienen porque molestarse por el resto.
-
IBM, Motorola y Apple realizaron un consorcio para desarrollar los PPC, procesadores CISC… Los actuales Pentium y AMD son RISC... ¿Qué significa esto?
Al revés ¿no?
Un saludo.
-
Creo k no, amd y los nuevos intel tienen Risc, lo otro no lo se seguro.
-
Es que una cosa es la arquitectura interna del chip, y otra es el juego de instrucciones que admiten. Los P4 internamente son RISC, pero externamente son CISC. En el caso de AMD creo que no es así.
-
No entiendo eso de internamente y externamente, y k yo sepa los p4 eran cisc mientras k los amd eran risc.
-
De cara al programador es un procesador X86 (CISC), pero no ejecuta las instrucciones X86 directamente sino que las traduce a un lenguaje interno RISC.
-
Cierto, una cosa es que convierta de RISC a CISC y otra que sea directamente CISC
Por cierto, me como todas mis palabras jaja
Apple pasará posiblemente a x86… Ademas de la mano de Intel..
En fin, yo sere un feliz poseedor de un Mac Mini que verá su juicio final en cuanto Apple se pase al x86 (no por nada... sino por la catastrofe que le ocasionara a Apple eso...)
En fin... Cada dia odio mas la informatica xD
-
Un poquito de por favor, vamos a ver, quien puede decirme ¿porque Microsoft no a puesto ninguna protección anticopia en su SO?
¿Cuantos de nosotros elegirían como jovi la informática si tuviéramos que pagar por todo lo que usamos?, ¿cuantos ordenadores dejarían de venderse?, ¿los fabricantes de de hardware acusarían una bajada de ventas?¿porque la play station I triunfo de una manera tan aplastante?.Que no se engañe nadie, la informática va unida a la piratería.
-
@Javisoft2004:
Creo k no, amd y los nuevos intel tienen Risc, lo otro no lo se seguro.
No es que el P4 sea risc, lo que sucede es que para ejecutar una instrucción x86 debe realizar varias operaciones o microinstruciones a las que intel llama uOPS. De todas formas la CPU debe decodicficar un conjunto complejo de instrucciones, cada instrucción puede ejecutarse mediante un conjunto reducido de microoperaciones, pero que no pueden llamarse instrucciones como tal. Puede que este comportamiento refleje internamente al de una CPU RISC, pero en realidad no es el caso.
Por otro lado las CPUs de AMD son completamente CISC.
-
Por otro lado las CPUs de AMD son completamente CISC
Entonces, Intel externamente es CiSC y traduce las instrucciones a RISC internamente, y los AMD son enteramente CISC no? Por lo menos eso e entendido.
Otra cosa, siempre a sido asi? Creo k no, pero weno, alguien seria tan amable de expicarme en ese caso, en resumidas cuentas la evolucion de dichos procesadores? Gracias -
La arquietctura x86 contiene desde el principio centenares de instrucciones CISC, por lo que cada procesador compatible x86 es CISC. Las arquitecturas RISC no van a desaparecer, pues son las que permietn segmentar un micro, con lo que se puede elevar su rendimiento y frecuencia de reloj.
El 486 era un micro CISC.
El Pentium era un micro que contenia internamente dos 486 (una con la unidad de coma flotante y otro sin ella.) Ademas, dicha unidad estaba segmentada (pipeline). Eso le permitia empezar a procesar una instrucciíon antes de que la anterior hubiera terminado. Eso multiplicaba el rendimiento de los Pentium en operaciones de coma flotante con respecto a los 486.
El segmentar un micro permite aumentar su frecuencia de reloj y aumenar su rendimiento, pues puede procesar varias instrucciones a la vez (aunque no paralelamente). Pero es imposible segmentar un micro CISC, pues la segmentación requiere que las instrucciones a procesar sean "sencillas" o sea, no permiten operaciones aritmeticas que accedan a la memoria del ordenador. Solo permiet operaciones aritmeticas entre registros o operaciones de cargar/almacenar el valor de una posición de memoria en un registro.
El Pentium Pro era un micro enteramente segmentado, ello elevaba consideramente el rendimiento, pero necesitaba que antes de procesar una instrucción CISC, esta se conviertiera en una o varias operaciones RISC.
El Pentium II y Pentium III son evoluciones del Pentium Pro.
Con el Pentium 4 se elevo el numero de segmentos a 20 y en los nuevos modelos a 32 estados.Los AMD K6 creo que eran segmentados, pero no asi su unidad de coma flotante, con lo que su rendimiento en este tipo de calculos eran inferior a los micros de Intel. Para elevar su poetncia creo que legaron a incluir en el micro 3 unidades de coma flotante.
Los AMD K7 dividen cada instrucción CISC en dos instrucciones RISC (o solo a una, dependiendo del tipo de instrucción), una de acceso a memoria y otra de operacion ALU (Arimetrico-Lógica). Son micros segmentados, aunque su pipeline no es tan larga (10 ó 12 estados), con lo que a menor frecuencia de reloj consiguen un rendimiento "equivalente" a los de los Pentium 4.
Son las 04:33 y no tengo ganas de dormir. Por eso he escrito todo esto. Si me he equivocado en algo que alguien me corrija.
-
Se t agradece el esfuerzo, gracias, me va quedando mas clara la cosa, entonces segun e entendido, a mas segmentos tenga el micro mas frecuencia de reloj se consigue, en ese caso amd iria en desventaja, que la subsana por otro lado con lo que tu comentabas, pero entonces, no deveria un P4 tirar mas que un K8? En la practica la mayoria de las veces no es asi, suele ganar en multimedia pero por lo que e visto poco mas. No sera mejor tener menos mhz y utilizarlos mejor como hacen los Amds? Parece el cuento de nunca acabar pero es k no m keda todavia claro el pk en la practica no se refleja lo que ay en el papel. Saludossssss
-
Un poquito de por favor, vamos a ver, quien puede decirme ¿porque Microsoft no a puesto ninguna protección anticopia en su SO?
¿Cuantos de nosotros elegirían como jovi la informática si tuviéramos que pagar por todo lo que usamos?, ¿cuantos ordenadores dejarían de venderse?, ¿los fabricantes de de hardware acusarían una bajada de ventas?¿porque la play station I triunfo de una manera tan aplastante?.Que no se engañe nadie, la informática va unida a la piratería.
hombre, eso es un poco de demagogia barata. Está claro que la piratería existe, existió y existirá. Tambien es cierto, que en la epoca del amstrad de cinta, que era tremendamente facil copiar un juego muchisima gente se los compraba originales (porque el precio que tenian no era desmesurado). Los que aqui hay que tienen por hobbie la informatica pagan por practicamente todo lo que usan (el hardware), y algunos autentica pasta, lo que pasa es que es más facil gastarse 400€ en una grafica que 120€ en el SO, y porqué?, pues porque el SO te lo bajas, te lo prestan, etc. y sino pues te instalas alguna distribucion de linux gratuito (que no todas lo son), pero claro, ya no puedes jugar… MS no ha puesto ningun sistema anticopia a sus SO pq no le interesa invertir autenticas millonadas en sistemas que a los 2 dias están vulnerados, pero en cuanto salga alguno realmente fiable no te preocupes que lo pondran. La estrategia es crear la necesidad, para llegado un punto a la gente no le importe pagar por un producto que lleva años consumiendo gratis, esto es como lo del Digital+, que efectivamente cuando dejó de ser pirateable hubo mogollon de gente que se dió de baja, pero hubo un mogollón más que siguió dada de alta y pagando, cosa que no hubieran hecho de ningun modo si desde el principio no hubiera sido pirateable.
Salu2
Packo -
@Javisoft2004:
Se t agradece el esfuerzo, gracias, me va quedando mas clara la cosa, entonces segun e entendido, a mas segmentos tenga el micro mas frecuencia de reloj se consigue, en ese caso amd iria en desventaja, que la subsana por otro lado con lo que tu comentabas, pero entonces, no deveria un P4 tirar mas que un K8? En la practica la mayoria de las veces no es asi, suele ganar en multimedia pero por lo que e visto poco mas. No sera mejor tener menos mhz y utilizarlos mejor como hacen los Amds? Parece el cuento de nunca acabar pero es k no m keda todavia claro el pk en la practica no se refleja lo que ay en el papel. Saludossssss
Utilizar mas pipelines o etapas permite aumentar la velocidad de reloj, pero al mismo tiempo existe una gran penalización ya que si en un momento dado existe un error de predicción (frecuentemente) en una rama la CPU debe descartar todos los datos que había estado procesando, vaciar o limpiar todas las pipelines y volver a empezar. Esto reduce la eficiencia enormemente ccomo sucede en un P4. Un K8 por su parte posee muchas menos etapas y la penalización es mucho menor, además porque el K8 posee algoritmos de predicción mucho más eficientes que el de el P4. Es por esta razón que en forma efectiva un K8 puede realizar más intrcciones por ciclo de reloj, al menos un un 30% más, el presscot posee más de 30 etapas, el K8 sólo posee 13.
-
Yo no estoy de acuerdo totalmente. Lo primero es que el echo de aumentar las etapas de segmentacion conlleva la disminucion de el numero de ciclos de reloj por etapa y de esta manera se puede aumentar la frecuencia de trabajo del procesador. Si la prediccion falla, debemos vaciar los registros de segmentacion que estan entra las etapas; pero el echo de tener mas etapas no quiere decir que forzosamente tengamos que tener mas registros de segmantacion. Estas registros de utilizan en aquellas etapas donde la anticipacion de datos es necesaria para no perder ciclos de reloj en esperas que producen las dependencias de datos. Por lo tanto ante un caso de dos etapas, por ejemplo la etapa de escritura en registros y la etapa de escritura en memoria no es necesario colocar ningun registro de segmentacion porque no hay dependencias. Despues de todo este rollo, quiero decir que el echo de aumentar el numero de etapas no implica necesariamente una perdida de tiempo extra resultante del fallo en la prediccion; y tampoco quiere decir que por tener mas etapas nuestra BTB (es la unidad funcional encargada de las predicciones) sea mejor o peor.
-
Buffff, ahora si que estoy K.O.
-
Yo no estoy de acuerdo totalmente. Lo primero es que el echo de aumentar las etapas de segmentacion conlleva la disminucion de el numero de ciclos de reloj por etapa y de esta manera se puede aumentar la frecuencia de trabajo del procesador. Si la prediccion falla, debemos vaciar los registros de segmentacion que estan entra las etapas; pero el echo de tener mas etapas no quiere decir que forzosamente tengamos que tener mas registros de segmantacion. Estas registros de utilizan en aquellas etapas donde la anticipacion de datos es necesaria para no perder ciclos de reloj en esperas que producen las dependencias de datos. Por lo tanto ante un caso de dos etapas, por ejemplo la etapa de escritura en registros y la etapa de escritura en memoria no es necesario colocar ningun registro de segmentacion porque no hay dependencias. Despues de todo este rollo, quiero decir que el echo de aumentar el numero de etapas no implica necesariamente una perdida de tiempo extra resultante del fallo en la prediccion; y tampoco quiere decir que por tener mas etapas nuestra BTB (es la unidad funcional encargada de las predicciones) sea mejor o peor.
Bueno segun artículos especilizados de arstechnica, además de otras razones, el aumento de etapas penaliza el rendimiento debido a las fallas en la predicción que llegan a causar desperdicios de cilcos de reloj importantes. Para la muestra la arquitectura netburst. No esoy diciendo que la efectividad de la unidad de predicción dependa del número de pipelines, sino que al aumentar el numero de pipelines se requiere una mejor unidad de predicción.
"I talked above about how the P4's greatly-enlarged and more-complex instruction window is one place where the P4 pays a price for its deep pipeline and high clock speed. The other place where the P4 spends a ton of resources to cover the costs of deep pipelining is in its branch prediction unit. For reasons which will become even more clear in the section below, the P4's deep pipelines mean that a mispredicted branch will cost many more wasted cycles than it would on the P6."
"Following the execute stage on the P4 are the flags, branch check, and drive stages. In the flags stage any flags that the need to be set as a byproduct of the instruction's execution (i.e., a division by zero flag, overflow flag, etc.) are set in the x86's flag register. The branch check stage, stage 19, is where branch conditions are evaluated, which means that in the case of a mispredict you have to flush 19 stages (en el caso del willamete y northwood, en caso del presscot este numero asciende a 31) worth of work out of the pipeline. That's a lot of wasted cycles. Finally, there's a final drive stage dedicated to sending the results of the execution back to the ROB where they'll wait to be written back to the register file at retirement time."
http://arstechnica.com/articles/paedia/cpu/pentium-2.ars/4
http://arstechnica.com/articles/paedia/cpu/pipelining-2.ars