¿El desarrollo de la informatica se esta decelerando?
-
Hombre, espero que nadie se hubiese creido que la ley de Moore se iba a cumplir a rajatabla por los siglos de los siglos (amén). Una duplicación de potencia anual de caracter infinito resulta impensable, a no ser que vivieramos en un mundo donde los recursos materiales y humanos fuesen gratuitos, y aun así. Este estancamiento es totalmente normal en mi opinión. Aun así estoy seguro que más tarde o más temprano se encontrará un nuevo camino por el que volver a avanzar, hasta que ese también se agote…
Yo realmente no me extraño de que se haya producido este paron. Cuando empece en el mundo de los ordenadores fue cuando mi padre me dio su 286 hace 11 o 12 años. Entonces yo sabia que exisitian dos clases de ordenadores: en blanco y negro (el que yo tenia) y en color. Y yo pensaba que eso iba a ser asi siempre; que los baratos eran en b/n y los mas caros en color, pero mas tarde me di cuenta que la transicion del b/n al color habia sido una evolucion y que la tecnologia anticuada se dejaba de producir. Mas tarde me compre mi 486 y ya entonces oia hablar de los pentium. Yo pensaba entonces que los 486 eran los ordenadores baratos y los pentium los caros y que eso iba a ser asi para siempre. Finalemente me di cuenta que eso no era asi y que estaba viviendo en una burbuja ya que en pocos años aparecio el pentium 2, despues el 3, etc y durante todos estos años me he estado preguntando como era posible que la informatica evolucionara a esa velocidad de vertigo, es decir, que a mi lo que me extraña realmente es que los ordenadores sigan la ley de Moore (algunos opinan que la informatica es la tercera revolucion indutrial) y lo que me parece normal es que se produzcan parones, no solo eso sino que la velocidad del desarrollo que se ha producido durante este "paron" es incluso superior a la de cualquier otra tecnologia y pleno apogeo. Es mas, estoy convencido de que dentro de unos años (no se cuantos) tu iras a una tienda de ordenadores y le diras al dependiente "quiero un ordenador" y el dependiente te dara un ordenador ya que la informatica (desde mi punto de vista) llegara un momento en el que toque techo (todos los ordenadores tendran practicamente las mismas prestaciones) y sea completamente imposible evolucionar mas, al menos, al ritmo vertiginoso al que se ha evolucionado hasta ahora. El caso es que tecnologicamente no hemos llegado todavia a ese punto y a pesar de que la evolucion se ha "estancado" la velocidad de proceso y demas ha continuado subiendo. El tema en cuestion es: ¿por que creeis se ha producido este paron?
Algunos han dicho que es debido a que, al igual que en cualquier otra tecnica,en este caso se han encontrado obstaculos para alcanzar niveles de integracion superiones. Otros dicen que se ha parado ahora un poco para luego pegar un aceleron y ponerse el tema como estaba antes. Estoy de acuerdo con estos primeros, pero con los que dicen que se ha producido un paron para luego seguir no lo estoy demasiado. A mi la situacion actual me "recuerda" a la aparacion del 386. El 386 era un procesador con un bus de 16bit que emulaba los 32 bits, es decir, algo parecido a lo que pasa ahora con los procesadores de 64 bits de ambito domestico. Y en aquella epoca no se produjo ninguna desaceleracion del desarrollo. El 386 no fue mas que un punto de inflexion para pasar de los 16bits del 286 a los 32 del 486. Ahora pasa lo mismo que paso entonces, se estan vendiendo procesadores tecnologicamente revolucionarios como el A64 para pasar de los 32 bits a los 64, y no entiendo por qué esto puede producir la desaceleracion que se ha producido.
-
Pues yo pienso que todavia tardaran años en salir, pero cuando lo hagan, los ordenadores opticos si que seran una revolucion, la informatica nunca se parara, porque entonces las ventas bajarian, las industrias siempre van a estar sacando cosas nuevas, aunq sea un chasco, como el caso de la memoria DDR2, es un paso mas hacia la DDR3, y los pasos no podemos saltarnolos, hay q ir paso a paso.
-
Eso es lo que uno puede pensar mirandolo en la actualidad ya que es una revolucion. Si por ejemplo vamos mucho mas atras en el tiempo y nos fijamos en la primera revolucion industrial con la maquina de vapor pues uno ahora piensa "si es que ese invento de daba mas de si", pero entonces la gente no dejaba de ver nuevos artilugios hechos con maquinas de vapor y no dejaban de ver como INNOVABAN ese invento, entonces claro, lo normal era pensar que eso iba a seguir asi para siempre, pero no. La diferencia que hay entre un motor de explosion de los años 20 a la actualidad ha cambiado mucho, pero no tanto como cabria esperar: ahora los coches corren mas y consumen menos, pero al fin y al cabo siguen siendo lo mismo, una maquina que con unos procesos termodinamicos hace que el coche ande. Con la informatica yo no digo que llegue un momento en el que paren las cosas completamente, pero como en cualquier otra revolucion llegara un momento en el que la cosa se estabilice, y esto quiere decir que se sequira innovando (al igual que ha pasado con la maquina de vapor desde que aparecio hasta la actualidad), pero a un ritmo mas sosegado.
El hecho de que eso haga que las empresas pierdan dinero no significa que se vaya a evitar. Vamos a suponer un caso hipotetico: si los tecnicos necesitan una porcion de por ejemplo aluminio inferior a un atomo las empresas por muchos millones que vayan a perder no puede emplear una cantidad de aluminio inferior a un atomo simplemente porque eso viola las leyes de la fisica. Tu hablas de ordenadores opticos y yo he oido hablar de procesadores cuanticos, tecnologias que aun ni nos imaginamos, pero llegara un momento en que esas tecnologias toquen techo y puede que aparezcan otras… pero lo que yo tengo claro es que esto no es infinito e igual que ahora han encontrado una forma de seguir subiendo el rendimiento de los procesadores (DC) llegara un momento en que se diga "señores, hasta aqui hemos llegado".