¿El desarrollo de la informatica se esta decelerando?
-
me parece una de las discusiones mas interesantes que he leido en este foro gracias cobito por iniciarla,
Creo que estais dejando atras temas, os estais centrando en el desarrollo de la informatica solamente desde el punto de vista de los pcs y la informatica no es solo eso, es decir, en el desarrollo de la informatica tambien entran: por ejemplo, porcentajes de la poblacion que tiene ordenador, lo que cuesta ahora un ordenador, usos ….
Pero bueno si os quereis centrar solamente en el avance del pc, si, logicamente se ha desacelerado tantos los MHz, como el avance de las arquitecturas se a estancado, no obstante, no creo q se hayan atascado en las velocidades de los procesadores, memorias, disco duros, si no en el uso que les damos
¿Porque no existe un incremento en el rendimiento de procesadores??
segun yo: creo que los programadores nos hemos acomodado, no se aprovechan los 64 bits en casi nada, ss3, hypertheating(o algo parecido de intel), y ahora tambien pasara con dual core. si para una operacion determinada un core normal usando las instrucciones basicas nos tarda 2ms por ejemplo, el programador y las compañias dicen: anda no hagas ese programa multiplataforma total... quien no va a aguantar 3seg para que se habra el programa, quien es tan impaciente que quiere 2,5seg ?? ¿para que vamos a multiplicar el numero de programadores que tenemos?
el uso de nuevas instrucciones y tecnologias es lo que se deberia conseguir ahora, prefiero q los programas q utilizo en windows este optimizados para mi amd 64, que tener un amd 64 mucho mas rapido.
Cosa que por cierto se consigue en linux(aunqe no todo), creo que en este sistema operativo si se esta notando mas el avance de la informatica.apunte: curioso lei en algun foro q el windows 64 bits aun trae programas (tipo calculadora) que trabajan en 32 bits, aunque la base es 64 bits.
la informatica no es una ciencia exacta cdlular nada es 100% ni las pruebas ya que una prueba mide una determinada cosa y un procesador sirve para muchas, pero cdlular tiene razon en algo hay componentes que no hace falta q tengan una progresion lineal:
el disco duro, supuso un gran cambio el pasar de 256 megas a 2 gigas en apenas 1 año (porque no eran necesarios tantos floppys, porque se paso a uno informatica distinta, las aplicaiones empezaron a ocupar algo de HD(disco duro) con las ventajas q eso tenia…) pero el pasar de 2 a 16 gigas la verdad pues no aunq lo hubiera hecho en un mes pues no supondria un avance gigantesco, ahora mismo podemos guardar 50 peliculas en el HD sin problemas, pero para que queremos llegar a guardar 500?? es necesario? yo opino que no. que los HDs hubieran seguido con una progrsesion lineal hubiera sido absurdo.con las memorias segun yo lo veo es diferente, recordemos que hasta hace poco los 32 bits limitaban la memoria que se podia usar, y los programadores sabedores de eso, no podian hacer programas que ocuparan catindades de memoria muy grandes, ahora se a quitado ese limite, aunq no del todo pero bueno, repito lo de antes: las empresas no quieren mas trabajo y solo utilizan las cosas generalesmuy pocas hacen 2 versiones del mismo programa y por tanto ahora que ya podemos poner mas memoria (cosa increiblemente util) haber si se deciden a querer aprovecharlo.
ya con eso termino que me canse de escribir, pero espero haber aportado un punto de vista nuevo, cosas que quiero que queden claras: al informatica se a estancado pero no porq los mhz no se hayan incrementado lo suficiente y que de 1992 hasta ahora la informatica a seguido creciendo sin parar a un ritmo demasiado alto, agradezco que ese ritmo se este frenando, ya que sinceramente yo no necesito por ahora que siga creciendo si no que se difunda mas y que los precios sigan mejorandose, en eso si que se a avanzado.
-
En el hilo también habláis de la memoria, cantidad vs velocidad y he aquí mi opinión. De nada te sirve tener 256 megas de RAM que vayan 10 GHz si el sistema tiene que estar esperando a leer los datos del disco duro, prefiero un par de gigas que vayan a 266 MHz. Una vez que tienes la suficiente ram como para no hacer swapping excesivo entonces si que cuenta mucho la velocidad
Hombre claro que importa la cantidad, pero teniendo la suficiente hay muchos mas factores a tener en cuenta que la cantidad de memoria.
Hasta ahora, y desde los 60, se venía cumpliendo la ley de Moore que dice que cada 18 meses la potencia de los micros se dobla. Pero en los últimos tiempos parece ser que se ha realentizado un poco. Si hacéis una búsqueda en google con "moore law" veréis lo que opina el resto del mundo (y lo que dice intel, en uno de los primeros links).
Claro, pero 'hasta ahora' la potencia se medía en MHz y 'ahora' ya no se mide en MHz. Con lo que es posible que no se duplique, pero tampoco está estancada.
y por otro lado será necesario contar con más cantidad de memoria y de espacio de almacenamiento (sobre todo de lo primero), ya que los programas de 64 bits ocupan más que los de 32 (y no me refiero a un programa de 32 bits sobre una plataforma de 64 como ocurre ahora en windows, sino un sistema 64 bits puro).
por esto ultimo más de uno te pegaria ;). Realmente los 64 bits x86 no deja de ser una 'emulación' propiamente dicha, no es un sistema 64bits puro como pueda ser el itanium.
Esto también es aplicable a los sistemas de almacenamiento. Los discos duros han ido aumentando de tamaño sin cesar, aunque no al ritmo de las CPU (los discos no son el doble cada 18 meses). En el almacenamiento "externo" pasa más o menos lo mismo, pero a saltos: ¿Os acordáis del gran salto de disquete a CD?, luego vino el salto (mucho menor) del DVD, y ya se está preparando el del Blue Ray y el de su competidor (a ver en qué queda todo eso).
El tema de los discos duros es parecido a los anteriores. Es posible que en cuanto a tamaño no haya crecido acorde al resto (Voy a poner mi ejemplo: En el año 95 me compré un P75 con 16MB de RAM y 2GB de disco duro, en el año 2005 podría comprarme un P4 3500MHz, 2 GB de RAM y 250GB de disco duro. Saltandonos todos los cambios de plataforma y demás y yendo solo y exclusivamente a los numeros se podria desprender que podria comprarme un micro más de 46 veces más potente, 128 veces más memoria RAM y 125 veces más disco duro por menos dinero de lo que me costó en su dia el P75), pero no solo influye el tamaño, influye el tiempo de acceso a disco, rpm, etc. etc.
En resumen, y después de todas mis divagaciones, la informática no se detiene (no es rentable, jeje), aunque a veces parece que se tome un respiro.
Yo creo que la informatica efectivamente no se detiene y si lo parece es porque va a cojer carrerilla para algo.
Salu2
Packo -
Pues a eso me refiero… que no todo es cantidad, ni todo es velocidad, y que para poder apreciar la velocidad primero se necesita una cantidad mínima (512 megas a día de hoy como mínimo).
Bueno, en algunos sitios dicen que es la potencia lo que se duplica y otros dicen que es el número de transistores (entre ellos Intel). Raras veces lo he visto como "velocidad" y, de hecho, yo NO me refiero a la velocidad. Para medirla, sobre todo en los años posteriores a la formulación de dicha ley, se solían utilizar los MIPS y los MFLOPS. Las pruebas sintéticas llegaron más tarde y lo de los MHz es más para el mercado de consumo.
En cuanto a lo de los 64 bits vs 32 y el consumo en espacio: Ocupan más. Gran parte de la zona de código de un programa son accesos a memoria, se utilizan para todo. Un puntero de 64 bits ocupa exactamente el doble que uno de 32 y una operación de acceso a memoria utiliza uno o más de esos punteros, con lo que el código aumenta una varbaridad (no llega al doble pero es muy notable). Si un programa está compilado para 64 bits utilizará direccionamiento de 64 bits. Además, he hablado en futuro... cuando lleguen los sistemas de 64 bits "de verdad" esto será así... ya lo veréis. (yo me llevé una sorpresa al ver lo que ocupaban losprogramas en máquinas de 64 bits como una ultrasparc o una alpha en comparación con una sparc o intel, y esa es la explicación, la cantidad de bits utilizados para el direccionamiento). En un disco duro se nota menos, ya que los datos siguen siendo iguales, pero en la RAM, donde hay mucho más código, se nota mucho.
Por último yo también estoy de acuerdo... está tomando carrerilla hacia los 64 bits (por fin).
-
Bueno cdbular, espero impaciente tu trabajo de investigacion. Tengo una lista de los procesadores de intel desde el 4004 al pentium 3 que elabore hace unos años con sus respectivas frecuencias y fechas de lanzamiento (por generaciones). Ahora no la encuentro, pero en cuanto la tenga la publico para facilitarte el trabajo.
-
En primer lugar: de nada da3210, creo que este es un buen sitio para expresar mis inquitudes en estos temas.
Al final he logrado encontrar la lista y llega hasta el pentium 4, momento en el que la abandone. No recuerdo de donde saque los datos, pero si recuerdo que eran de fiar (puede que la del pentium 4 no sea mucho de fiar). Las fechas se refieren a la salida a la venta del primer modelo. Solo hay procesadores de Intel (era fan de intel). De todas formas los procesadores de AMD empezaron a ser competentes frente a los de intel desde los Athlon XP (corregidme si me equivoco), aunque esta empresa comenzo a operar en este mundillo cuando Intel ya habia sacado el 286 al mercado (yo tengo un AMD 286 de 10MHz :rolleyes: ).
Espero que sirva de ayuda:
Lista de microprocesadores de Intel
4004 15-11-71…...........108KHz
8008 1-4-72.................108KHz
8080 1-4-74.................2MHz
8086 8-6-78.................5MHz
8MHz
10MHz8088 1-6-79.................5MHz
8MHz80286 1-2-82.................8MHz
10MHz
12MHzi386DX 17-10-85.............16MHz
20MHz
25MHz
33MHzi386SX 16-6-88...............16MHz
20MHz
33MHzi486DX 10-4-89...............20MHz
25MHz
33MHz
50MHzi486SX 22-4-91...............16MHz
20MHz
25MHz
33MHz
66MHzi486DX2 1-3-92.................40MHz
50MHz
66MHzi486DX4 1-3-94.................75MHz
100MHzPentium 22-3-93...............60MHz
66MHz
75MHz
90MHz
100MHz
120MHz
133MHz
150MHz
166MHz
200MHz
233MHzPentium Pro 27-3-95................150MHz
180MHz
200MHzPentium MMX 8-1-97.................150MHz
166MHz
200MHz
233MHz
266MHz
300MHzPentiumII 7-5-97.................233MHz
266MHz
300MHz
350MHz
400MHz
450MHzPentiumII Xeon 29-6-98...............400MHz
450MHzPentiumII OverD.10-8-98..........................333MHz
PentiumII PE 25-1-99...............................266MHz
300MHz
333MHz
350MHz
400MHzCeleron 15-4-98...............266MHz
300MHzCeleron A(slot1) 24-8-98...............300MHz
333MHz
350MHz
366MHz
400MHz
433MHzCeleron A (S.370) 4-1-99................300MHz
333MHz
350MHz
366MHz
400MHz
433MHz
450MHz
466MHz
500MHzPentiumIII 28-2-99...............450MHz
500MHz
550MHz
600MHz
650MHz
667MHz
700MHz
733MHz
750MHz
800MHz
850MHz
866MHz
933MHz
1GHzPentiumIII Xeon 17-3-99...............500MHz
550MHzPentiumIII E 25-10-99.............400MHz
450MHz
500MHz
550MHz
600MHz
650MHz
700MHz
733MHzPentium4 1-1-2001.............1Ghz
Tambien tengo una tabla con las distintas tecnologias e innovaciones de los procesadores intel hasta el pentium 2. Si os interesa la publico tambien.
-
cd bular, de verdad crees que el undergound 2 tiene un motor físico brillante??? woOOo volcando cubos de basura y pegando piños sin romper coches me siento en un mundo físico muy real
-
cd bular, de verdad crees que el undergound 2 tiene un motor físico brillante??? woOOo volcando cubos de basura y pegando piños sin romper coches me siento en un mundo físico muy real
Y hacer saltos en J, y 4 vueltas de campana y caer de pie… vamos, una fisica tan fiel como la del GTA :rolleyes:
-
cd bular, de verdad crees que el undergound 2 tiene un motor físico brillante??? woOOo volcando cubos de basura y pegando piños sin romper coches me siento en un mundo físico muy real
Es la esencia del juego. En NFSU los carros no se rompen no por falta de capacidad de la CPU, sino porque sería muy, pero muy aburrido tener que estar cuidando el carro, de no estrellarte y reprimirte de ir a toda velocidad con miedo de darte contra la pared. En NFSU me refiero a la física de movimiento del carro, las marcas en la carretera, el sistema de partículas, la inercia de los carros, como patina el carro al arrancar , la sensación dea celeración , la pérdida de control del caro, es bastante buena.
-
Vali, dices que los juegos actuales no presentan la mejor IA. En tonces que presenta la mejor IA en juegos?, si no hay nada mejor. Cuál fué el último juego que jugaste, DOOM I?. Si pensaras que la máquina no es estúpida estarias en graves problemas, es obvio, cualquier forma de inteligencia artificial parecería estúpida con respecto a la inteligencia de un ser humano normal, esto no es matrix. sin embargo esa estúpida IA en muchas ocasiones nos hace pasar DEMASIADO trabajo para pasarnos los juegos, entonces ya no parecería tan estúpida, o no? Para que la máquina no se estúpida debería equipararse con el cerebro humano (Incluso algunos con cerebros humanos son increíblemente estúpidos), no puedes pretender que algo millones de veces inferior al cerebro humano tenga la capacidad de pensar o actuar de forma similar a este. Yo estoy hablando del avance de los juegos en IA y en física con respecto a los juegos de hace años, el avance es abismal y los logros son excelentes, no estoy diciendo que la Inteligencia en los juegos sea superdotada, y que la física sea tan real que no te des cuenta que es un juego, es el avance, hace años la inteligencia artificial verdaderamente daba mucho que desear y no hablemos de la física, es obvio que en sólo dos años no se va a alcanzar el culmen de la física y de una verdadera IA (de la que se está muy lejos).
-
Una cosa es que la IA sea muy buena, y te sorprenda con tretas y trampas, y otra q el juego sea dificil porque los enemigos sean muy duros, aunq sean tontos.
-
Una cosa es que la IA sea muy buena, y te sorprenda con tretas y trampas, y otra q el juego sea dificil porque los enemigos sean muy duros, aunq sean tontos.
Entonces los juegos serían imposibles, enemigos duros e inteligentes.
-
¡Esta publicación está eliminada! -
Bueno cdbular, espero impaciente tu trabajo de investigacion. Tengo una lista de los procesadores de intel desde el 4004 al pentium 3 que elabore hace unos años con sus respectivas frecuencias y fechas de lanzamiento (por generaciones). Ahora no la encuentro, pero en cuanto la tenga la publico para facilitarte el trabajo.
Bueno cobito, he recolectado suficientes datos como para que podamos sacar conclusiones. Los datos los recolecté utilizando el arithmethic benckmark de SANDRA 2005 y Los test de tomsharware de CPUS de P100 hasta P4 3.06. Además datos de hothardware a anandtech. esas son mis fuentes. Escogí Sandra porque aunque es un benchmark sintético puede no muestrar el rendimiento REAL, muestra una aproximación al renduimiento de las CPUs y además posee una estensa base de datos sobre benchmarks hechos desde el Pentium 66 hasta el Athlon X2 4800+.
Evolución procesadores AMD
Evolución CPUs IntelHice test de AMD e intel por separado, de esta manera puede observarse la evolución de ambas por separado, ya que si se combina las dos el patron algo irregular, principalmente porque a partir de 1997 AMD decidió utilizar arquitecturas diferentes a las de intel.
Puede observarse que intel ha tenido una evolución prácticamente exponencial, especialmente en los años comprendidos entre 1998 y 2004, en 2004 existe un pequeño estancamiento debido a que intel se cuenta demasiado tarde de que su estrategia de los MHz no es adecuada y sus procesadores se calientan demasiado, evitando que aumanten la velocidad de reloj que estaba proyectada a llegar a 4GHz e finales de ese año, se inclina entonces por una estrategia dóble nucleo que aumeta potencialmente el rendimiento de forma exponencial como se venía dando en los últimos años.
Por su parte AMD como empezó a crear su propias CPUs desde el K6 , el rendimiento ha venido incermentandose en forma casi que lineal desde 1998 hasta 2004 y hatomado un cambio bastante brusco en 2005 con la salida de dobles núcleos, tomando una tendencia exponencial. El aumento lineal desde el primer K7 se debe a que el K8 utiliza básicamente la misma arquitectura. El bache de AMD está entre el año 2002-2003 en donde la pendiente de la recta se hace menor y en 2004 y 2005, en donde el Athlon XP sufrio un estancamiento debido a los problemas de fabricación en masa del A64 que estaba presupuestado para salir en febrero de 2003. Vvuelve a subir de forma súbita con la salida del A64 y A64 X2.
En conclusión, el avance de las CPUs no se ha frenado en los últimos años, por el contrario, la tendencia es exponencial, tanto para AMD como para intel, es posible que en los hayan existido algunos baches (que siempre han existido y existiran), pero que serán superados con el desarrollo de nuevas tecnologías de fabricación y nuevas estragias de procesamiento, la era de los MHz ha muerto y como dije antes, hay otros parámetros de comparación que son mucho más importantes, En este momento la estrategia se enfoca hacia múltiples núcleos y 64 bits, intel y AMD se encuentran desarrollando tecnologías de fabricación que permitan integrar más núcleos en la misma pastilla, no será raro dentro de algunos años ver 4 o más CPUs en la misma pastilla. La informática no se ha estancado, solo que existe una transición, debido a un cambio de estrategia, que intel no pudo prever (o no quiso, por marketing) pero AMD si lo hizo desde el momento en que comenzó a diseñar el A64.
-
Sigues empeñado en utilizar el doble núcleo como ejemplo del doble de potencia, y el problema es que hay muchísimos campos de la informática, como es el caso de los juegos, en los que la programación multihilo es dificilísimo de implementar en la práctica. Léete esta noticia para saber la opinión (oh, opiniones en informática. Quememos a Newell por hereje) de un experto, y no la de alguien que pone como ejemplo un solo test sintético en el cual la potencia del dual core es prácticamente el doble de la del single core a la misma velocidad. Por cierto, cosa que en programas prácticos casi nunca se da… Siendo lo normal justo lo contrario, que el aumento de rendimiento en la ejecución de un solo programa (no digo el caso de multitarea) sea bajo. Elegir ejemplos aislados no es la forma de demostrar una teoría. Ah, buenas risas que me eché con lo de la física del NFSU2, tienes un gran sentido del humor
PD: Otra opinión (te deben doler los ojos al leer esta palabra), esta vez de un ingeniero de nVidia, que digo yo que algo sabrá el chaval.
-
cd bular, de verdad crees que el undergound 2 tiene un motor físico brillante??? woOOo volcando cubos de basura y pegando piños sin romper coches me siento en un mundo físico muy real
si hombre si q hay algo q se rompe los cristales q se ven asi un poco crujidos, x lo menos yo lo e visto.. pero vamos desues x arte d magia estan brillantes y como nuevos otra vez
Salu2!
-
Pero claro, que digas que el NFSU2 tiene buena física es solo una opinión, ¿no cdbular?
-
Je je, me ha encantado la frase del ingeniero de nvidia "Los desarrolladores de juegos estan aterrados ante los nuevos procesadores multicore que se avecinan"
Y volviendo al tema del hilo estoy de acuerdo con el enunciado del tema, en realidad el desarrollo informático ha sido mucho menor de lo que hubiera cabido esperar. Desde los 4 Mhz. iniciales se ha llegado a los 4000 Mhz. o sea se ha multiplicado por 1000 la frecuencia, desde los 48 Kb iniciales hasta los 4 GB que pueden montarse en los ordenadores de hoy se ha multiplicado la capacidad por 87381, en fin ante estas magnitudes era de esperar que un ordenador supiera conversar y pensar por si mismo como el del enterprise sin embargo practicamente el modus operandis ha cambiado poquisimo y el avance es testimonial. En cambio las comunicaciones creo que han sufrido un avance mucho mas importante que el de la informatica , al menos a lo que a nivel practico se refiere.
Saludos
-
Cuando me refería a que la IA de los juegos actuales no es muy buena lo decía porque interpreté que en tu post ponías a los juegos como "el no va mas" de IA con respecto a otros campos, no como comparación a los juegos más antiguos (¿ir hacia atrás en IA?).
En mi opinión la IA de un juego sigue siendo muy básica y predecible, aunque desde hace años existen técnicas de IA bastante más avanzadas (y no me refiero a que el ordenata se ponga a filosofar, jeje). Lo que si que he notado en los últimos títulos a los que he jugado, aunque no son muchos, es que gastan muchos más esfuerzos en el aspecto visual que en cualquier otra cosa. Está muy bien que las luces sean dinámicas, que (algunos) objetos se puedan deformar, que nuestras víctimas caigan retorcidas en el suelo, etc pero en muchas ocasiones dejan la jugabilidad en el baúl de los recuerdos…
No es la primera ocasión, y seguramente no será la última, que hablando con gente sobre lo bueno que es o no un juego éstos se basaban en la "captura de pantalla". Si la imagen que ben es buena, el juego es "bueno por cojones". En mi caso y, afortunadamente, en el de muchos otros lo que pretendo con un juego es pasar un buen rato, aunque sea viendo 4 pixels gordos moviéndose por pantalla. Si la IA te hiciese "perradas", cambiase de táctica en cada ocasión y cada vez que jugases fuese un poco más complicado (esto lo he visto en algún lado), sería mucho más divertido.
A día de hoy los juegos On-line triunfan precisamente por eso... porque juegas contra otros que exprimen los sesos para hacerte la vida imposible a ti. La IA de un juego sigue siendo muy sencilla. Por ejemplo yo casi no noto la diferencia entre un modo "normal" del Far-Cry y el modo realista (bueno, si, que hacen algo más de daño), pero los "muñecos" se comportan igual.
En cuanto a la física... prefiero a la del carmaggedom original a la de cualquier NFS (aunque los coches casi volasen, jeje). Y en cuanto a que sería un coñazo que se deformasen los coches yo sigo pensando que el mejor NFS fué el Porsche 2000, donde había que conducir con cuidadín porque sino te dejabas la carrocería atrás. Una pena que no siguiesen ese camino con el HP2 o con los Underground (¿será para competir con el arcade puro de las consolas?).
-
Sigues empeñado en utilizar el doble núcleo como ejemplo del doble de potencia, y el problema es que hay muchísimos campos de la informática, como es el caso de los juegos, en los que la programación multihilo es dificilísimo de implementar en la práctica. Léete esta noticia para saber la opinión (oh, opiniones en informática. Quememos a Newell por hereje) de un experto, y no la de alguien que pone como ejemplo un solo test sintético en el cual la potencia del dual core es prácticamente el doble de la del single core a la misma velocidad. Por cierto, cosa que en programas prácticos casi nunca se da… Siendo lo normal justo lo contrario, que el aumento de rendimiento en la ejecución de un solo programa (no digo el caso de multitarea) sea bajo. Elegir ejemplos aislados no es la forma de demostrar una teoría. Ah, buenas risas que me eché con lo de la física del NFSU2, tienes un gran sentido del humor
PD: Otra opinión (te deben doler los ojos al leer esta palabra), esta vez de un ingeniero de nVidia, que digo yo que algo sabrá el chaval.
Entonces estamos hablando de un estancamiento del software, como he dicho todo este tiempo, el hardware está allí, el rendimiento POTENCIAL está allí (ni tan potencial teniendo en cuenta el incremento significativo en codificación MPEG2 y MPEG4 y programas de creación de contenido entre otros), sólo hay que explotarlo, es díficil, más no imposible, nuca ha sido fácil cada vez que hay transiciones, al principio de la era de 32 bits no fué fácil tampoco para los desarrolladores desarrollar las nuevas herramientas que necesitaban, como tampoco se ha aprovechado demasiado la transición a 64 bits.
Aunque sea muy díficil implentar juegos utilizando varios threads , tendrán que hecerlo, pués inavitablemente es el camino que las nuevas consolas marcarán y los nuevos procesadores multinúcleo. Hay que evolucionar. Nunca he dicho que sea fácil, pero es el camino a seguir. En fin el potencial no solo esta en los juegos sino en todas las demás aplicaciones, especialmente codificación de vídeo y creación de contenido, las cuales ya poseen soporte SMT y en las cuales se produce un incremento significativo en rendimiento. Puedo poner otros ejemplos de aplicaciones multithreaded como codificación MPEG-MPEG4 y 3DSmax entre otros en donde los procesadores DC logran un aumento significativo, y no son sinteticos. Al principio aclaré que los benchmarks sintéticos pueden no mostrar rendimiento real, pero muestran el poetncial del DC, así como también lo muestran las aplicaciones actuales con SMT. En los programas actuales casi nunca se da un aumento significativo en los procesadores DC simplemente porque NO TIENEN SOPORTE SMT (así que no es una opinión de Newell, es un hecho soportado en las pruebas actuales y retroalimentación de sus ingenieros NO ES OPINION es UN HECHO BASADO EN LA EXPERIENCIA), como dije es una transición y lleva algo de tiempo, ademas las CPUs DC son recientes. Newell no es hereje, sólo está exponiendo la situación actual, yo solo expongo el potencial de DC. En cuanto al inquirer no es una opinión es una apreciación objetiva apoyada en hechos, el concepto que tengo del término opinión (errado o no) es de una visión subjetiva muchas veces sin soporte. entonces Las opiniones (o apreciaciones subjetivas) se dejan para política y otras ciencias sociales. Como veo que aluno de los dos posee un concepto errado de opinión, ya no las llamaré opiniones sino apreciaciones subjetivas, es más largo, pero queda más claro mi concepto (errado o no) del término opinión. Entonces para que tu alma quede en paz asume que mi concepto del término opinión es errado y cambialó en todos los post que he públicado por apreciación subjetiva, y listo! -
Cuando me refería a que la IA de los juegos actuales no es muy buena lo decía porque interpreté que en tu post ponías a los juegos como "el no va mas" de IA con respecto a otros campos, no como comparación a los juegos más antiguos (¿ir hacia atrás en IA?).
En mi opinión la IA de un juego sigue siendo muy básica y predecible, aunque desde hace años existen técnicas de IA bastante más avanzadas (y no me refiero a que el ordenata se ponga a filosofar, jeje). Lo que si que he notado en los últimos títulos a los que he jugado, aunque no son muchos, es que gastan muchos más esfuerzos en el aspecto visual que en cualquier otra cosa. Está muy bien que las luces sean dinámicas, que (algunos) objetos se puedan deformar, que nuestras víctimas caigan retorcidas en el suelo, etc pero en muchas ocasiones dejan la jugabilidad en el baúl de los recuerdos…
En cuanto a la física... prefiero a la del carmaggedom original a la de cualquier NFS (aunque los coches casi volasen, jeje). Y en cuanto a que sería un coñazo que se deformasen los coches yo sigo pensando que el mejor NFS fué el Porsche 2000, donde había que conducir con cuidadín porque sino te dejabas la carrocería atrás. Una pena que no siguiesen ese camino con el HP2 o con los Underground (¿será para competir con el arcade puro de las consolas?).
Como dije, en comparación con la inteligencia humana, por más esfuerzos que se hagan con las CPUs y técnicas actuales todos los enemigos parecerá estúpidos. Necesitas una supercomputadora especialmente creada y asistida por humanos para vencer Kasparov jugando ajedrez (considerado una humillación, ya que esta supercomputadora nisiquiera puede considerarse inteligente). ¿que puedes esperar de un PC?
en cuanto al porshe 2000 es muy aburrido, la entretención estaba en cuidar el carro, ciertamente no es el estilo de NFSU en donde la idea es ir lo más rápido que pueda y convertir tu carro en un superbólido por medio de las modificaciones. El titulo del juego es "Need For Speed", No "Need for driving carefully".