¿El desarrollo de la informatica se esta decelerando?
-
Pues va a ser que no. Lo que dice es que todo el código que tienes no te vale para nada, que tienes que empezar a programar motores nuevos desde cero, y que la dificultad de programación es muchísimo mayor que en el caso de un solo core.
Otra cosa, para cdbular, la informática es un ámbito global, no te sirve de nada tener mucha potencia si no la puedes utilizar. Es como si a un coche de 500cv le metes unas ruedas de vespino. La potencia bruta la tienes, pero no las prestaciones.
Vamos kynes por fin dices algo útil en tu primer comentario, pero en ti segundo comentario ya es un poco radical, si lo leo simplemente tratas de decir que no se puede utilizar la potencia de DC, que es imposible que las aplicaciones utilicen este potencial, lo cual es falso, ya hay aplicaciones que lo utilizan y muy pronto habrá más, se ha dicho que es díficil escribir aplicaciones SMT más no imposible.
-
Que si, lo que tu digas… Ahora resulta que sabes más de informática que Newell, Carmack y Sweeney juntos. Pues nada, con todo lo que sabes de programación, seguro que te forras. Chico, que suerte tienes.
Para mi este hilo está muerto, no se como lo haces pero todos los hilos en los que participas acaban en un flame war.
PD: Por desgracia mi inteligencia inferior no me da para decir cosas útiles. Menos mal que tenemos a grandes pensadores de nuestro tiempo como tú que nos iluminan No, si en el fondo creo que eres un jachondo, y lo que quieres es dar vidilla al foro.
-
Que rompegüevos eres, chico. Por supuesto que no tengo un coche tuneado, pero el tunning no hace que los coches se salten las leyes de la física. Volviendo al tema, si quieres pensar que estamos sobre una balsa de aceite, mejor para ti, pero no voy a dejar de pensar que de aqui a unos cuantos años vamos a ver como la potencia de los ordenadores crece cada vez con menor velocidad. Y no me vale que en un tipo de aplicación que YO no uso, como es la creación de contenidos multimedia, se dispare la potencia. A mi lo que me vale es el tipo de aplicaciones que YO uso, y es muy triste ver como antiguamente el aumento de frecuencia al realizar una disminución en la tecnología era de un 40-45%, y ahora los fabricantes de procesadores se conforman con un 20% y tienen que buscar otras salidas como el multicore. Hay partes de la informática que permiten un paralelismo casi infinito, como es el caso de las aplicaciones gráficas, mientras que hay muchas aplicaciones en las que solo se puede tener un hilo, porque existen muchos problemas de sincronismo al intentar realizar esa aplicación entre varios hilos, y eso no lo digo yo, lo dicen la gran mayoría de las opiniones de desarrolladores que he leido. No he leido ningún programador de juegos ilusionado con las posibilidades que permite el multicore.
Por cierto, que quede claro que me parece la única opción válida que tienen hoy en día tanto Intel como AMD, pero eso no quita que sea una mejora muy pobre en muchos campos. No todos los usuarios utilizan sus pcs para lo mismo, y lo que YO quiero es más potencia en lo que a mi me interesa. Me dan exactamente igual las mejoras en las aplicaciones que YO no utilizo.
PD: En rallys se corre sobre asfalto, sobre tierra y sobre nieve. No todo es arena y barro.
Como he dicho es una transición, a los desarrolladores les parece supremamente complicado porque primero deben desarrollar las herramientas para luego desarrollar el software. Sucede que las aplicaciones de codificación y creación de contenido son SMT no porque sean más fáciles de implementar que las demás sino porque estas aplicaciones se utililzan en gran medida en estaciones de trabajo con múltiples procesadores, caso contrario a las aplicaciones comunes del PC, no es que las demás envuelvan una complejidad mucho mayor hasta el punto de que sea imposible una implemenatción futura. En cuanto a los de NFSU ólvidalo es una pérdida de tiempo. La mejora es pobre en muchos campos precisamente a causa de las aplicaciones que no son SMT no a causa de que la CPU DC este falta de potencia de procesamiento. A quién le importa si tu utilizas o no las aplicaciones actuales SMT, de todas formas estas muestran el potencial de DC te guste o no.
-
Que si, lo que tu digas… Ahora resulta que sabes más de informática que Newell, Carmack y Sweeney juntos. Pues nada, con todo lo que sabes de programación, seguro que te forras. Chico, que suerte tienes.
Para mi este hilo está muerto, no se como lo haces pero todos los hilos en los que participas acaban en un flame war.
PD: Por desgracia mi inteligencia inferior no me da para decir cosas útiles. Menos mal que tenemos a grandes pensadores de nuestro tiempo como tú que nos iluminan No, si en el fondo creo que eres un jachondo, y lo que quieres es dar vidilla al foro.
Resulta que Newell, Carmack y Sweeney dicen que es muy díficil escribir aplicaciones SMT (haciendo énfasis en los juegos, y de todas formas su rendimiento depende principalmente de las tarjetas gráfica) , no los estoy contradiciendo a ellos, te estoy contradiciendo a tí, que asumes muy díficil como imposible.
-
cdbular, tu problema no son tus opiniones, es la forma en la que participas en las discusiones. Miras por encima del hombro a los otros foreros, y los tratas con desprecio. Tienes el potencial de discutir de manera brillante sobre temas tecnológicos, pero también tienes un complejo de superioridad tremendo que te hace atacar a todo aquél que discute tus opiniones. Espero que algún día te des cuenta, puede ser interesante hablar contigo de manera sosegada.
-
cdbular, tu problema no son tus opiniones, es la forma en la que participas en las discusiones. Miras por encima del hombro a los otros foreros, y los tratas con desprecio. Tienes el potencial de discutir de manera brillante sobre temas tecnológicos, pero también tienes un complejo de superioridad tremendo que te hace atacar a todo aquél que discute tus opiniones. Espero que algún día te des cuenta, puede ser interesante hablar contigo de manera sosegada.
Una vez más no son mis opiniones, son apreciciones objetivas. Y si alguién está equivocado, lo corrijo , no es una muestra de superioridad, por el contrario al correjir errores en los que podrían incurrir los demás estoy siendo solidario.
Vaya pensé que habias dejado el hilo! -
Si hablamos de precios, cuanto costaba un 486DX en 1993?, seguramente a precio de hoy mucho más de lo que cuesta un A64 X2 3800+ o 4200+. Las PCs de hoy comparadas con las años atrás son más baratas, no tengo en cuenta el precio por esa razón. Los procesadores y las PCs en general eran mucho menos accequibles antes que ahora.
En cuanto a distintos bancos de prueba, estoy de acuerdo, sólo que no los hay para más comparar CPUs tan atiguas con las CPUs actuales , sólo SANDRA fué el único que encontré para realizar tales comparaciones, pero al menos es una comparación mucho más acertada que comparar MHz o Pratings sobretodo hablando de generaciones distintas, que es lo que tú estabas haciendo.Athlon xp 4000+???? Querras decir A64 4000+. El valor de CPU bench lo saqué de THG aquí , en el test donde A64 4000+ en año 2004 era nuevo, no es un despieste mío, en todo caso sería de THG.
¿En donde estoy comparando un XEON??? Todo los procesadores que compraron son desktop, parece que el despistado aquí es otro.Estos son las CPUs que comparo.
Pentium 66 (1993)
Pentium 120 MHz (1994)
Pentium 133 MHz (1995)
Pentium Pro 200MHz (1996)
Pentium II 333 (1997)
Pentium II 400 (1998)
Pentium III 750MHz Copp. (1999)
Pentium III 1GHz (2000)
Pentium 4 1,6 Willamette (2001)
P4-B 2,66 GHz (2002)
P4-C-3,2 GHz HT SMT (2003)
P4E 560 SMT(3,6GHz) (2004)
Pentium D XE 840 (2005)
Una vez más . Donde está el XEON???
…y por cierto Las analogías coches-computadoras muy pocas veces son útiles.Los procesadores DC si pueden dar el potencial mostrado por los benchmarks sintéticos, Echate una pasada por Ananctech y observa las aplicaciones Multithreaded como MPEG2 y DIVX encoding y creación de contenido como Photoshop y 3Dsmax, el resto de aplicaciones no presentan el aumento en rendimiento ya que no son SMT, pero si lo fueran y seguramente habrá versiones SMT en poco tiempo, el aumentó también sería bastante significativo (excepto en los juegos ya que el rendimiento depende principalmente de la tarjeta gráfica). Una vez más es un periodo de transición.
Ten en cuenta varias cosas , tu PII 400 lo compraste 2 años después de que salió al mercado, seguramente no podrías haberlo comprado cuando salió porque costaba 1000 dólares. El A64 X2 4800+ (que salió hace 3 meses) cuesta 1000 díolares de hoy que son menos dinero que 1000 dólares hace 7 años si lo llevamos a valor pasado. El A64 X2 4800+ cuesta menos de los que costaba el PII 400 hace 7 años. Ves.
Lo del XEON has sido error mio. Lo del athlon xp ha sido tambien un despieste mio, pero no te lo tomes tan a pecho, aqui no estamos para desbancarnos los unos a los otros, sino para llegar a alguna conclusion. Los del Athlon64 4000+ lo he sacado del sandra.
Yo a ti no te he hablado del 486 en 1993. Me voy a citar a mi mismo para recordarte que en realidad estaba hablando de otra cosa:
Yo como usuario de informatica se una cosa seguro y es que con el dinero que me costo mi pentium2 con 64 mb de ram y tarjeta grafica mediocre, o lo que es casi lo mismo, el dinero que me costo mi athlon xp2000 512 mb de ram y grafica mediocre, por 100 ? mas ahora me podria comprar un athlon xp 64 3200, con 1 gb de ram y una grafica mediocre. Si fuera millonario o todos mis ingresos los destinara a la compra de un ordenador me podria comprar algo sustancialmente mejor, pero como no es el caso, ni el caso de la mayoria de las personas no se puede tener en cuenta (vease de nuevo mi definicion de desarrollo al principio).
Con esto quiero decir que a mi no me interesa comprar la ultima tecnologia, no porque no me interese en si, sino por que no puedo. Si en 1993 no me compre el 486 era porque era demasiado caro… y mi padre se compro hace mas de 20 años un 286 que le costo mas de medio millon de pesetas. Un hecho indiscutible es que con el tiempo el precio de la informatica ha descendido. Si lo que me quieres demostrar es que la relacion antigüedad/precio de los procesadores ha mejorado sustancialmente con el tiempo te doy la razon; estoy completamente de acuerdo. Pero ¿por que ahora esa misma relacion antigüedad/precio ha empeorado? De eso se trata. Como he dicho antes ¿de que me sirve tener una tecnologia espectacularmente mejor que la de hace 3 años si no la puedo adquirir?
Te voy a decir la diferencia de enfoques del termino desarrollo que tenemos tu y yo: tu el desarrollo te lo tomas como algo absoluto, es decir, para ti la ultima tecnologia es lo ultimo que los desarrolladores de hardware ha sacado al mercado. Yo me lo tomo desde un punto de vista relativo; para mi, como he dicho antes, el desarrollo significa comprarme mañana algo mejor que lo que hay hoy, pero al mismo precio.
A mi no me importa cuantos años despues de que haya salido al mercado me haya comprado el procesador, a mi lo que me interesa es desde que preciso instante ese procesador puedo costearmelo. En este caso toda la demas tecnologia que no pueda comprar me resulta invisible, desde el punto de vista de consumidor informatico, no de aficionado a la informatica.
Bien, ahora vamos a suponer que las graficas que has presentado muestran la realidad absoluta del panorama actual en el mundo de los procesadores (cosa que no es asi, pero bueno). ¿De que me sirve a mi tener en el mercado un procesador que no puedo comprar? No me sirve de nada
-
Como dije, en comparación con la inteligencia humana, por más esfuerzos que se hagan con las CPUs y técnicas actuales todos los enemigos parecerá estúpidos. Necesitas una supercomputadora especialmente creada y asistida por humanos para vencer Kasparov jugando ajedrez (considerado una humillación, ya que esta supercomputadora nisiquiera puede considerarse inteligente). ¿que puedes esperar de un PC?
Pues lo que puedo esperar de un PC, a día de hoy, es una IA mucho mejor que la que presenta un juego. Cuando dije que no era buena la de los juegos actuales no me refería en comparación con un humano, sino con otros programas ya existentes. Incluso existe un test para comprobar que no estás conversando con una máquina, que creo recordar que se llamaba el "test de Touring" (nació a razón de que habían programado un programita que casi se hacía pasar por un humano a quien no estuviese prevenido, hace años ya). Es una pena que, como dije antes, los juegos pasen casi olímpicamente de la IA y se centren casi en exclusiva a los gráficos.
en cuanto al porshe 2000 es muy aburrido, la entretención estaba en cuidar el carro, ciertamente no es el estilo de NFSU en donde la idea es ir lo más rápido que pueda y convertir tu carro en un superbólido por medio de las modificaciones. El titulo del juego es "Need For Speed", No "Need for driving carefully".
Es tu opinión, no la mía (ya ves, no todo es objetivo). De hecho los buenos jugadores de NFSU no rayarían el coche y te puedo asegurar que yo corría mucho en el Porsche. El no rayarlo se consigue con la práctica y no yendo como un animal porque da igual si se rompe o no. De hecho en la mayoría de los juegos de coches se hacen mejores tiempos de forma "prudente" que rozando todo el rato con las paredes.
Inciso: ¿álguien para un pique al colin2?Vaya, yo me atreveria a opinar justo lo contrario. Cuando sacan el último modelo de gráfica, vease 7800GTX, la mayoria de las veces (por no decir siempre) no hay ningún juego (excepto sus respectivas demos del fabricante) que aproveche la tecnologia de dicha gráfica, o no es asi?
De acuerdo, pero no porque el hardware lleve delantera. Me acuerdo de leer una entrevista a J. Karmack cuando sacó el Quake3 en la que decía que no había podido meter todo lo que él quería en el engine porque no había máquina que lo soportase. Creo que es lo que ocurre hoy en día. Hacer un juego no se hace en un mes y en el garaje (como antaño… muy antaño). Se requieren años y profesionales en muchas ramas distintas. Cuando desarrollan el engine no saben qué habrá en el mercado cuando saquen el producto a la venta, así que es muy complicado que un juego utilice inmediatamente la tecnología punta existente cuando los usuarios lo vayan a utilizar. Además se tienen que asegurar que los clientes potenciales sean el mayor número, con lo que sacar un juego que exprima todo el potencial puede no ser rentable (por mucho que desactives efectos, siempre pesan lo suyo).
Lo que he podido comprobar en los años que han ido pasando desde mi primer PC es que la gran mayoría de las veces es el software quien espera por el hardware. Muchos algoritmos de compresión han esperado años a que fuesen usables debido a la gran potencia de cálculo requerida.
Lo que si es distinto es la potencia necesaria por un usuario "normal". Hace unos 10 años el tener un ordenador un poco más potente suponía una mejora muy sustancial a la hora de utilizarlo. Unos pocos MHz más suponían la diferencia entre ser insufriblemente lento o medianamente utilizable. Hoy en día no es así. Para utilizar lo que la mayoría de la gente utiliza actualmente en su ordenador, cualquier equipo nuevo a la venta es suficiente. La gente aguanta con su viejo cacharro mucho más que lo que se aguantaba antes. Ya se que la gran mayoría de los lectores del foro no siguen este camino, pero no se puede decir que seamos el "prototipo de consumidor".
A ver si aclaramos un poco el rumbo de esta rama y dejamos las disputas personales para el café.
Ok, captado… dejo el tema de los juegos que es un poco OT ya, jeje. El café lo pagas tu :P.
Que rompegüevos eres
Sorry tio, pero eso no ha quedado muy bien… No empecemos las descalificaciones que luego pasa lo que pasa...
Por cierto, doy fé que la multiprogramación (multihilo o multiproceso) es muuucho más complicada que la monoprogramación. Cuando al ejecutar un mismo código (aunque no sea muy grande) el resultado varía de ejecución a ejecución... uff. (y si, esto ocurre). Para evitarlo se ha desarrollado lo que se conoce como IPC (Inter process communication), o sea, semáforos, monitores, colas de mensajes... El utilizarlos correctamente no es trivial, y si se hace de forma poco cuidadosa, el sistema va más lento que si fuese un solo proceso.
Puedo poner otros ejemplos de aplicaciones multithreaded como codificación MPEG-MPEG4
No todo es paralelizable. De hecho en la codificación de vídeo en MPEG la ganancia en la paralelización no es muy grande ya que un frame depende del anterior (y a veces del siguiente) y el "coste" de la comunicación entre los dos procesos/hilos es similar a la ganancia. Donde si se puede ganar velocidad es en el tratamiento de la imagen pre-codificado. Mientras un programa/proceso filtra la imagen en un procesador, otro va codificando lo que el primero suministra. Es una ganancia en velocidad, pero no porque se haya sacado partido de un algoritmo que soporte SMP, sino porque son dos procesos distintos, típicamente generados por dos programas distintos. (de esto se ha hablado en más de una ocasión en los foros de doom9.org con respecto a aumentar la velocidad de codificación cuando se poseía más de un procesador).
Dios mío… ¿por qué siempre me extiendo tanto?
-
Insisto en que el tema que plantea Cobito es acertado lo que no veo es como enfocarlo apropiadamente.
Los microprocesadores están en una situación en la que han entrado en conflicto con una serie de leyes físicas relacionadas con el consumo energético y la disipación del calor.
Para paliar el estancamiento tecnológico y poder nutrir un mercado ávido de consumo los principales han optado por el multiproceso, lo que ocurre es que el multiproceso hace muchisimos años que existe y a mi entender no es ninguna novedad. En realidad la evolución a los 64 bits es mas logica pero el mundo del software tampoco parece encontrar ventajas suficientes para volcar sus esfuerzo en recomponer las aplicaciones. Por tanto no se, creo que hay un estancamiento. -
Una vez más no son mis opiniones, son apreciciones objetivas. Y si alguién está equivocado, lo corrijo , no es una muestra de superioridad, por el contrario al correjir errores en los que podrían incurrir los demás estoy siendo solidario.
Hay formas y formas, por lo que estoy viendo tu estás en posesión de la verdad absoluta, incluso en las opiniones.
Un saludo.
-
ehhh Magog, lo de la verdad absoluta me lo has robado :rolleyes: :rolleyes: . Eso se lo dije yo en una discusion que tuvimos, pero por ser tu te la presto
-
Hombre, espero que nadie se hubiese creido que la ley de Moore se iba a cumplir a rajatabla por los siglos de los siglos (amén). Una duplicación de potencia anual de caracter infinito resulta impensable, a no ser que vivieramos en un mundo donde los recursos materiales y humanos fuesen gratuitos, y aun así. Este estancamiento es totalmente normal en mi opinión. Aun así estoy seguro que más tarde o más temprano se encontrará un nuevo camino por el que volver a avanzar, hasta que ese también se agote…
-
Si estas en este foro para aprender, entonces agradeceme, estas aprendiendo porque estoy haciendote ver tus conclusiones erradas. Definitivamente no tengo nada que aprender de tí. Hasta el momento no he sacado conclusiones sólo te hago ver tus errores para que replantees tus conclusiones o al menos busques un soporte, pero no veo que lo haces.
Mmmm he citado solo eso xk veo ke t interesa mas postear por darte las pertinentes palmaditas en la espalda, ke intencion en ayuda.
No suelo postear muxo ya ke mis conocimientos son menores a los d la mayoria d aki, pero si pertenezco a esta comunidad desde hace bastante tiempo, y despues d leer esto, francamente y desde la sinceridad mas profunda d mi corazon t invito a ke abandones esta comunidad, xk por mas cosas ke sepa una persona, sino es capaz d explikarlas o expresarse con respeto, entendimiento y "buen rollo", acaba siendo la mas necia e inutil sobre la faz d la tierra.Solo eso.
P.D:Y aki no es todo blanko o negro, si hay algo mas imprevisible ke el ser humano da por hexo ke es la informatica…
-
Mmmm he citado solo eso xk veo ke t interesa mas postear por darte las pertinentes palmaditas en la espalda, ke intencion en ayuda.
No suelo postear muxo ya ke mis conocimientos son menores a los d la mayoria d aki, pero si pertenezco a esta comunidad desde hace bastante tiempo, y despues d leer esto, francamente y desde la sinceridad mas profunda d mi corazon t invito a ke abandones esta comunidad, xk por mas cosas ke sepa una persona, sino es capaz d explikarlas o expresarse con respeto, entendimiento y "buen rollo", acaba siendo la mas necia e inutil sobre la faz d la tierra.Solo eso.
P.D:Y aki no es todo blanko o negro, si hay algo mas imprevisible ke el ser humano da por hexo ke es la informatica…
….....................
Un saludo.
-
No suelo postear muxo ya ke mis conocimientos son menores a los d la mayoria d aki, pero si pertenezco a esta comunidad desde hace bastante tiempo
Cuando me registre en este foro, mis conocimiento en informatica eran amplios, ahora mucho mas, en gran parte gracias a este foro, por supuesto que no estoy al nivel de un buen profesional, pero si llevas un tiempo pasandote por el foro, algo tendras q controlar ya, no?
Ademas, una opninion la puede dar cualquier persona, y porque tengas tantos conocimientos como la enciclopedia Salvat, no quiere decir q tu opinion sea mas acertada, sera tu opinion, y puede que sea compartida en mayor o menor grado, ojo, hablo de opiniones, no de evaluaciones tecnicas basadas en datos empiricos, o como se diga :rolleyes:
-
Hombre, espero que nadie se hubiese creido que la ley de Moore se iba a cumplir a rajatabla por los siglos de los siglos (amén). Una duplicación de potencia anual de caracter infinito resulta impensable, a no ser que vivieramos en un mundo donde los recursos materiales y humanos fuesen gratuitos, y aun así. Este estancamiento es totalmente normal en mi opinión. Aun así estoy seguro que más tarde o más temprano se encontrará un nuevo camino por el que volver a avanzar, hasta que ese también se agote…
Yo realmente no me extraño de que se haya producido este paron. Cuando empece en el mundo de los ordenadores fue cuando mi padre me dio su 286 hace 11 o 12 años. Entonces yo sabia que exisitian dos clases de ordenadores: en blanco y negro (el que yo tenia) y en color. Y yo pensaba que eso iba a ser asi siempre; que los baratos eran en b/n y los mas caros en color, pero mas tarde me di cuenta que la transicion del b/n al color habia sido una evolucion y que la tecnologia anticuada se dejaba de producir. Mas tarde me compre mi 486 y ya entonces oia hablar de los pentium. Yo pensaba entonces que los 486 eran los ordenadores baratos y los pentium los caros y que eso iba a ser asi para siempre. Finalemente me di cuenta que eso no era asi y que estaba viviendo en una burbuja ya que en pocos años aparecio el pentium 2, despues el 3, etc y durante todos estos años me he estado preguntando como era posible que la informatica evolucionara a esa velocidad de vertigo, es decir, que a mi lo que me extraña realmente es que los ordenadores sigan la ley de Moore (algunos opinan que la informatica es la tercera revolucion indutrial) y lo que me parece normal es que se produzcan parones, no solo eso sino que la velocidad del desarrollo que se ha producido durante este "paron" es incluso superior a la de cualquier otra tecnologia y pleno apogeo. Es mas, estoy convencido de que dentro de unos años (no se cuantos) tu iras a una tienda de ordenadores y le diras al dependiente "quiero un ordenador" y el dependiente te dara un ordenador ya que la informatica (desde mi punto de vista) llegara un momento en el que toque techo (todos los ordenadores tendran practicamente las mismas prestaciones) y sea completamente imposible evolucionar mas, al menos, al ritmo vertiginoso al que se ha evolucionado hasta ahora. El caso es que tecnologicamente no hemos llegado todavia a ese punto y a pesar de que la evolucion se ha "estancado" la velocidad de proceso y demas ha continuado subiendo. El tema en cuestion es: ¿por que creeis se ha producido este paron?
Algunos han dicho que es debido a que, al igual que en cualquier otra tecnica,en este caso se han encontrado obstaculos para alcanzar niveles de integracion superiones. Otros dicen que se ha parado ahora un poco para luego pegar un aceleron y ponerse el tema como estaba antes. Estoy de acuerdo con estos primeros, pero con los que dicen que se ha producido un paron para luego seguir no lo estoy demasiado. A mi la situacion actual me "recuerda" a la aparacion del 386. El 386 era un procesador con un bus de 16bit que emulaba los 32 bits, es decir, algo parecido a lo que pasa ahora con los procesadores de 64 bits de ambito domestico. Y en aquella epoca no se produjo ninguna desaceleracion del desarrollo. El 386 no fue mas que un punto de inflexion para pasar de los 16bits del 286 a los 32 del 486. Ahora pasa lo mismo que paso entonces, se estan vendiendo procesadores tecnologicamente revolucionarios como el A64 para pasar de los 32 bits a los 64, y no entiendo por qué esto puede producir la desaceleracion que se ha producido.
-
Pues yo pienso que todavia tardaran años en salir, pero cuando lo hagan, los ordenadores opticos si que seran una revolucion, la informatica nunca se parara, porque entonces las ventas bajarian, las industrias siempre van a estar sacando cosas nuevas, aunq sea un chasco, como el caso de la memoria DDR2, es un paso mas hacia la DDR3, y los pasos no podemos saltarnolos, hay q ir paso a paso.
-
Eso es lo que uno puede pensar mirandolo en la actualidad ya que es una revolucion. Si por ejemplo vamos mucho mas atras en el tiempo y nos fijamos en la primera revolucion industrial con la maquina de vapor pues uno ahora piensa "si es que ese invento de daba mas de si", pero entonces la gente no dejaba de ver nuevos artilugios hechos con maquinas de vapor y no dejaban de ver como INNOVABAN ese invento, entonces claro, lo normal era pensar que eso iba a seguir asi para siempre, pero no. La diferencia que hay entre un motor de explosion de los años 20 a la actualidad ha cambiado mucho, pero no tanto como cabria esperar: ahora los coches corren mas y consumen menos, pero al fin y al cabo siguen siendo lo mismo, una maquina que con unos procesos termodinamicos hace que el coche ande. Con la informatica yo no digo que llegue un momento en el que paren las cosas completamente, pero como en cualquier otra revolucion llegara un momento en el que la cosa se estabilice, y esto quiere decir que se sequira innovando (al igual que ha pasado con la maquina de vapor desde que aparecio hasta la actualidad), pero a un ritmo mas sosegado.
El hecho de que eso haga que las empresas pierdan dinero no significa que se vaya a evitar. Vamos a suponer un caso hipotetico: si los tecnicos necesitan una porcion de por ejemplo aluminio inferior a un atomo las empresas por muchos millones que vayan a perder no puede emplear una cantidad de aluminio inferior a un atomo simplemente porque eso viola las leyes de la fisica. Tu hablas de ordenadores opticos y yo he oido hablar de procesadores cuanticos, tecnologias que aun ni nos imaginamos, pero llegara un momento en que esas tecnologias toquen techo y puede que aparezcan otras… pero lo que yo tengo claro es que esto no es infinito e igual que ahora han encontrado una forma de seguir subiendo el rendimiento de los procesadores (DC) llegara un momento en que se diga "señores, hasta aqui hemos llegado".