¿El desarrollo de la informatica se esta decelerando?
-
Como dije, en comparación con la inteligencia humana, por más esfuerzos que se hagan con las CPUs y técnicas actuales todos los enemigos parecerá estúpidos. Necesitas una supercomputadora especialmente creada y asistida por humanos para vencer Kasparov jugando ajedrez (considerado una humillación, ya que esta supercomputadora nisiquiera puede considerarse inteligente). ¿que puedes esperar de un PC?
Pues lo que puedo esperar de un PC, a día de hoy, es una IA mucho mejor que la que presenta un juego. Cuando dije que no era buena la de los juegos actuales no me refería en comparación con un humano, sino con otros programas ya existentes. Incluso existe un test para comprobar que no estás conversando con una máquina, que creo recordar que se llamaba el "test de Touring" (nació a razón de que habían programado un programita que casi se hacía pasar por un humano a quien no estuviese prevenido, hace años ya). Es una pena que, como dije antes, los juegos pasen casi olímpicamente de la IA y se centren casi en exclusiva a los gráficos.
en cuanto al porshe 2000 es muy aburrido, la entretención estaba en cuidar el carro, ciertamente no es el estilo de NFSU en donde la idea es ir lo más rápido que pueda y convertir tu carro en un superbólido por medio de las modificaciones. El titulo del juego es "Need For Speed", No "Need for driving carefully".
Es tu opinión, no la mía (ya ves, no todo es objetivo). De hecho los buenos jugadores de NFSU no rayarían el coche y te puedo asegurar que yo corría mucho en el Porsche. El no rayarlo se consigue con la práctica y no yendo como un animal porque da igual si se rompe o no. De hecho en la mayoría de los juegos de coches se hacen mejores tiempos de forma "prudente" que rozando todo el rato con las paredes.
Inciso: ¿álguien para un pique al colin2?Vaya, yo me atreveria a opinar justo lo contrario. Cuando sacan el último modelo de gráfica, vease 7800GTX, la mayoria de las veces (por no decir siempre) no hay ningún juego (excepto sus respectivas demos del fabricante) que aproveche la tecnologia de dicha gráfica, o no es asi?
De acuerdo, pero no porque el hardware lleve delantera. Me acuerdo de leer una entrevista a J. Karmack cuando sacó el Quake3 en la que decía que no había podido meter todo lo que él quería en el engine porque no había máquina que lo soportase. Creo que es lo que ocurre hoy en día. Hacer un juego no se hace en un mes y en el garaje (como antaño… muy antaño). Se requieren años y profesionales en muchas ramas distintas. Cuando desarrollan el engine no saben qué habrá en el mercado cuando saquen el producto a la venta, así que es muy complicado que un juego utilice inmediatamente la tecnología punta existente cuando los usuarios lo vayan a utilizar. Además se tienen que asegurar que los clientes potenciales sean el mayor número, con lo que sacar un juego que exprima todo el potencial puede no ser rentable (por mucho que desactives efectos, siempre pesan lo suyo).
Lo que he podido comprobar en los años que han ido pasando desde mi primer PC es que la gran mayoría de las veces es el software quien espera por el hardware. Muchos algoritmos de compresión han esperado años a que fuesen usables debido a la gran potencia de cálculo requerida.
Lo que si es distinto es la potencia necesaria por un usuario "normal". Hace unos 10 años el tener un ordenador un poco más potente suponía una mejora muy sustancial a la hora de utilizarlo. Unos pocos MHz más suponían la diferencia entre ser insufriblemente lento o medianamente utilizable. Hoy en día no es así. Para utilizar lo que la mayoría de la gente utiliza actualmente en su ordenador, cualquier equipo nuevo a la venta es suficiente. La gente aguanta con su viejo cacharro mucho más que lo que se aguantaba antes. Ya se que la gran mayoría de los lectores del foro no siguen este camino, pero no se puede decir que seamos el "prototipo de consumidor".
A ver si aclaramos un poco el rumbo de esta rama y dejamos las disputas personales para el café.
Ok, captado… dejo el tema de los juegos que es un poco OT ya, jeje. El café lo pagas tu :P.
Que rompegüevos eres
Sorry tio, pero eso no ha quedado muy bien… No empecemos las descalificaciones que luego pasa lo que pasa...
Por cierto, doy fé que la multiprogramación (multihilo o multiproceso) es muuucho más complicada que la monoprogramación. Cuando al ejecutar un mismo código (aunque no sea muy grande) el resultado varía de ejecución a ejecución... uff. (y si, esto ocurre). Para evitarlo se ha desarrollado lo que se conoce como IPC (Inter process communication), o sea, semáforos, monitores, colas de mensajes... El utilizarlos correctamente no es trivial, y si se hace de forma poco cuidadosa, el sistema va más lento que si fuese un solo proceso.
Puedo poner otros ejemplos de aplicaciones multithreaded como codificación MPEG-MPEG4
No todo es paralelizable. De hecho en la codificación de vídeo en MPEG la ganancia en la paralelización no es muy grande ya que un frame depende del anterior (y a veces del siguiente) y el "coste" de la comunicación entre los dos procesos/hilos es similar a la ganancia. Donde si se puede ganar velocidad es en el tratamiento de la imagen pre-codificado. Mientras un programa/proceso filtra la imagen en un procesador, otro va codificando lo que el primero suministra. Es una ganancia en velocidad, pero no porque se haya sacado partido de un algoritmo que soporte SMP, sino porque son dos procesos distintos, típicamente generados por dos programas distintos. (de esto se ha hablado en más de una ocasión en los foros de doom9.org con respecto a aumentar la velocidad de codificación cuando se poseía más de un procesador).
Dios mío… ¿por qué siempre me extiendo tanto?
-
Insisto en que el tema que plantea Cobito es acertado lo que no veo es como enfocarlo apropiadamente.
Los microprocesadores están en una situación en la que han entrado en conflicto con una serie de leyes físicas relacionadas con el consumo energético y la disipación del calor.
Para paliar el estancamiento tecnológico y poder nutrir un mercado ávido de consumo los principales han optado por el multiproceso, lo que ocurre es que el multiproceso hace muchisimos años que existe y a mi entender no es ninguna novedad. En realidad la evolución a los 64 bits es mas logica pero el mundo del software tampoco parece encontrar ventajas suficientes para volcar sus esfuerzo en recomponer las aplicaciones. Por tanto no se, creo que hay un estancamiento. -
Una vez más no son mis opiniones, son apreciciones objetivas. Y si alguién está equivocado, lo corrijo , no es una muestra de superioridad, por el contrario al correjir errores en los que podrían incurrir los demás estoy siendo solidario.
Hay formas y formas, por lo que estoy viendo tu estás en posesión de la verdad absoluta, incluso en las opiniones.
Un saludo.
-
ehhh Magog, lo de la verdad absoluta me lo has robado :rolleyes: :rolleyes: . Eso se lo dije yo en una discusion que tuvimos, pero por ser tu te la presto
-
Hombre, espero que nadie se hubiese creido que la ley de Moore se iba a cumplir a rajatabla por los siglos de los siglos (amén). Una duplicación de potencia anual de caracter infinito resulta impensable, a no ser que vivieramos en un mundo donde los recursos materiales y humanos fuesen gratuitos, y aun así. Este estancamiento es totalmente normal en mi opinión. Aun así estoy seguro que más tarde o más temprano se encontrará un nuevo camino por el que volver a avanzar, hasta que ese también se agote…
-
Si estas en este foro para aprender, entonces agradeceme, estas aprendiendo porque estoy haciendote ver tus conclusiones erradas. Definitivamente no tengo nada que aprender de tí. Hasta el momento no he sacado conclusiones sólo te hago ver tus errores para que replantees tus conclusiones o al menos busques un soporte, pero no veo que lo haces.
Mmmm he citado solo eso xk veo ke t interesa mas postear por darte las pertinentes palmaditas en la espalda, ke intencion en ayuda.
No suelo postear muxo ya ke mis conocimientos son menores a los d la mayoria d aki, pero si pertenezco a esta comunidad desde hace bastante tiempo, y despues d leer esto, francamente y desde la sinceridad mas profunda d mi corazon t invito a ke abandones esta comunidad, xk por mas cosas ke sepa una persona, sino es capaz d explikarlas o expresarse con respeto, entendimiento y "buen rollo", acaba siendo la mas necia e inutil sobre la faz d la tierra.Solo eso.
P.D:Y aki no es todo blanko o negro, si hay algo mas imprevisible ke el ser humano da por hexo ke es la informatica…
-
Mmmm he citado solo eso xk veo ke t interesa mas postear por darte las pertinentes palmaditas en la espalda, ke intencion en ayuda.
No suelo postear muxo ya ke mis conocimientos son menores a los d la mayoria d aki, pero si pertenezco a esta comunidad desde hace bastante tiempo, y despues d leer esto, francamente y desde la sinceridad mas profunda d mi corazon t invito a ke abandones esta comunidad, xk por mas cosas ke sepa una persona, sino es capaz d explikarlas o expresarse con respeto, entendimiento y "buen rollo", acaba siendo la mas necia e inutil sobre la faz d la tierra.Solo eso.
P.D:Y aki no es todo blanko o negro, si hay algo mas imprevisible ke el ser humano da por hexo ke es la informatica…
….....................
Un saludo.
-
No suelo postear muxo ya ke mis conocimientos son menores a los d la mayoria d aki, pero si pertenezco a esta comunidad desde hace bastante tiempo
Cuando me registre en este foro, mis conocimiento en informatica eran amplios, ahora mucho mas, en gran parte gracias a este foro, por supuesto que no estoy al nivel de un buen profesional, pero si llevas un tiempo pasandote por el foro, algo tendras q controlar ya, no?
Ademas, una opninion la puede dar cualquier persona, y porque tengas tantos conocimientos como la enciclopedia Salvat, no quiere decir q tu opinion sea mas acertada, sera tu opinion, y puede que sea compartida en mayor o menor grado, ojo, hablo de opiniones, no de evaluaciones tecnicas basadas en datos empiricos, o como se diga :rolleyes:
-
Hombre, espero que nadie se hubiese creido que la ley de Moore se iba a cumplir a rajatabla por los siglos de los siglos (amén). Una duplicación de potencia anual de caracter infinito resulta impensable, a no ser que vivieramos en un mundo donde los recursos materiales y humanos fuesen gratuitos, y aun así. Este estancamiento es totalmente normal en mi opinión. Aun así estoy seguro que más tarde o más temprano se encontrará un nuevo camino por el que volver a avanzar, hasta que ese también se agote…
Yo realmente no me extraño de que se haya producido este paron. Cuando empece en el mundo de los ordenadores fue cuando mi padre me dio su 286 hace 11 o 12 años. Entonces yo sabia que exisitian dos clases de ordenadores: en blanco y negro (el que yo tenia) y en color. Y yo pensaba que eso iba a ser asi siempre; que los baratos eran en b/n y los mas caros en color, pero mas tarde me di cuenta que la transicion del b/n al color habia sido una evolucion y que la tecnologia anticuada se dejaba de producir. Mas tarde me compre mi 486 y ya entonces oia hablar de los pentium. Yo pensaba entonces que los 486 eran los ordenadores baratos y los pentium los caros y que eso iba a ser asi para siempre. Finalemente me di cuenta que eso no era asi y que estaba viviendo en una burbuja ya que en pocos años aparecio el pentium 2, despues el 3, etc y durante todos estos años me he estado preguntando como era posible que la informatica evolucionara a esa velocidad de vertigo, es decir, que a mi lo que me extraña realmente es que los ordenadores sigan la ley de Moore (algunos opinan que la informatica es la tercera revolucion indutrial) y lo que me parece normal es que se produzcan parones, no solo eso sino que la velocidad del desarrollo que se ha producido durante este "paron" es incluso superior a la de cualquier otra tecnologia y pleno apogeo. Es mas, estoy convencido de que dentro de unos años (no se cuantos) tu iras a una tienda de ordenadores y le diras al dependiente "quiero un ordenador" y el dependiente te dara un ordenador ya que la informatica (desde mi punto de vista) llegara un momento en el que toque techo (todos los ordenadores tendran practicamente las mismas prestaciones) y sea completamente imposible evolucionar mas, al menos, al ritmo vertiginoso al que se ha evolucionado hasta ahora. El caso es que tecnologicamente no hemos llegado todavia a ese punto y a pesar de que la evolucion se ha "estancado" la velocidad de proceso y demas ha continuado subiendo. El tema en cuestion es: ¿por que creeis se ha producido este paron?
Algunos han dicho que es debido a que, al igual que en cualquier otra tecnica,en este caso se han encontrado obstaculos para alcanzar niveles de integracion superiones. Otros dicen que se ha parado ahora un poco para luego pegar un aceleron y ponerse el tema como estaba antes. Estoy de acuerdo con estos primeros, pero con los que dicen que se ha producido un paron para luego seguir no lo estoy demasiado. A mi la situacion actual me "recuerda" a la aparacion del 386. El 386 era un procesador con un bus de 16bit que emulaba los 32 bits, es decir, algo parecido a lo que pasa ahora con los procesadores de 64 bits de ambito domestico. Y en aquella epoca no se produjo ninguna desaceleracion del desarrollo. El 386 no fue mas que un punto de inflexion para pasar de los 16bits del 286 a los 32 del 486. Ahora pasa lo mismo que paso entonces, se estan vendiendo procesadores tecnologicamente revolucionarios como el A64 para pasar de los 32 bits a los 64, y no entiendo por qué esto puede producir la desaceleracion que se ha producido.
-
Pues yo pienso que todavia tardaran años en salir, pero cuando lo hagan, los ordenadores opticos si que seran una revolucion, la informatica nunca se parara, porque entonces las ventas bajarian, las industrias siempre van a estar sacando cosas nuevas, aunq sea un chasco, como el caso de la memoria DDR2, es un paso mas hacia la DDR3, y los pasos no podemos saltarnolos, hay q ir paso a paso.
-
Eso es lo que uno puede pensar mirandolo en la actualidad ya que es una revolucion. Si por ejemplo vamos mucho mas atras en el tiempo y nos fijamos en la primera revolucion industrial con la maquina de vapor pues uno ahora piensa "si es que ese invento de daba mas de si", pero entonces la gente no dejaba de ver nuevos artilugios hechos con maquinas de vapor y no dejaban de ver como INNOVABAN ese invento, entonces claro, lo normal era pensar que eso iba a seguir asi para siempre, pero no. La diferencia que hay entre un motor de explosion de los años 20 a la actualidad ha cambiado mucho, pero no tanto como cabria esperar: ahora los coches corren mas y consumen menos, pero al fin y al cabo siguen siendo lo mismo, una maquina que con unos procesos termodinamicos hace que el coche ande. Con la informatica yo no digo que llegue un momento en el que paren las cosas completamente, pero como en cualquier otra revolucion llegara un momento en el que la cosa se estabilice, y esto quiere decir que se sequira innovando (al igual que ha pasado con la maquina de vapor desde que aparecio hasta la actualidad), pero a un ritmo mas sosegado.
El hecho de que eso haga que las empresas pierdan dinero no significa que se vaya a evitar. Vamos a suponer un caso hipotetico: si los tecnicos necesitan una porcion de por ejemplo aluminio inferior a un atomo las empresas por muchos millones que vayan a perder no puede emplear una cantidad de aluminio inferior a un atomo simplemente porque eso viola las leyes de la fisica. Tu hablas de ordenadores opticos y yo he oido hablar de procesadores cuanticos, tecnologias que aun ni nos imaginamos, pero llegara un momento en que esas tecnologias toquen techo y puede que aparezcan otras… pero lo que yo tengo claro es que esto no es infinito e igual que ahora han encontrado una forma de seguir subiendo el rendimiento de los procesadores (DC) llegara un momento en que se diga "señores, hasta aqui hemos llegado".