Half-Life 2 y exclusivo para tarjetas nVidia?
-
SpaceRay creo que he perdido un poco de practica y por eso no me he explicado bien. Queria decir que precisamente por lo que mencionabas no van a salir juegos exclusivos por lo que al final no es tan importante como parecia ya que se ha pasado de juegos exclusivos a juegos optimizados, algo que se lleva hciendo toda la vida.
Eso si, tienes razon que no he leido tu ultimo post al completo porque lo vi aigual que el anterior.
Leyendote en algunos post he visto que haces mucha referencia a los tiempos pasados, especialemnte a cuando existia 3Dfx y ahora mencionas lo del Quake. Pues creo que te refieres al quake 1 que fue el que mas problemas daba y que al jugarse en una voodoo era practicamente otro juego y os lo digo yo que jugue con el el en una virge y en una banhsee.
En estos casos lo que sucedia era que el hardware existente no era capaz de mover con soltura un juego ni que aparecieran todos los efectos, en el caso del Quake ademas se trataba de que para que funcionara perfectamente hacia falta un driver OGL que al principio solo impelentaron las Voodoo. En estos casos la existencia de un juego exclusivo u optimizado estaba mas que justificada porque cada chip grafico se programaba independientemente y habia un hardware a años luz del resto.
Actualemte esto no tiene sentido para empezar porque una Radeon 9700 tiene poco que envidiarle a una 5800. Por otro lado se estan confundiendo las cosas y nos estamos dejando engañar. No seamos tontos, los juegos futuros no va a ir en una 5200 por muy FX que sea. nvidia nos intenta vender FX hasta en la sopa y una 5200 tiene la mitad de transistores que una 5800 por lo que no son iguales ni implementan las mismas funciones, ¿si fuera asi para que poner el doble de transistores? (El doble por decir un numero)
Tampoco tiene sentido hablar de optimizacion en juego Dx9. Si un juego es 100% compatible con Dx9 (no funcionara en una FX pero bueno) funcionara igual en una 9500 que una 5200 que una 9800, mas o menos rapido pero exactamente igual. Para bien o para mal esa es una de las carcateristicas de Dx9.
Todo lo que sean optimizaciones es alejarse del "estandar" Dx.
Y me reitero en lo mismo, la optimizacion no se consigue por usar el CG ni mucho menos, se consigue programando a nivel de maquina o a nivel especifico cosa que no hacen los programadores, en general y que no van a hacer gracias a las propias compañias de hardware. Si el tiempo de desarrollo de un juego es de 2 años, ¿para cual de las 3 graficas de la misma marca que han salido en ese tiempo lo programo?.
-
Leyendo lo que comenta J_P sobre el HL2 se me ocurren varias cosas sobre la de tonterias que a veces se dicen en la red sobre algunos temas, y no digo que este sea el caso, si no por todo el revuelo de que si tal o cual juego iba a ser exclusivo.
Segun esta informacion, y corregidme si me equivoco que el ingles ni fu ni fa, se basara en el motor del Doom III y aparecera antes que el propio doom. Creo que dice tambien que les han mostrado una version alpha corriendo en un P4 1.7ghz a 70fps.
Pues sobre lo primero decir que ningun juego basado en un motor de Id ha salido antes que el propio juego, cosa por otro lado logica, sobre todo si tenemos encuenta que hasta el dia de su duplicacion un juego sigue en desarrollo y los programadores ajenos a un motor necesitan leerse la documentacion y mirar al menos el codigo fuente, digo yo. Y segundo que el Doom III parece que saldra sobre el 30 junio creo recordar y si a ellos le han mostrado una version alpha ya tienen que correr.
Y lo ultimo es que no lo tengo muy claro, no se si dice que su alpha daba 70 fps en ese equipo o que cuando salga dara 70 fps en ese equipo. En cualquiera de los dos casos no se lo creen ni ellos. La alpha del domm III me daba en un 1900+ y radeon 8500 una media de 3 fps y un pico de 15fps, de eso a 70 me parece mucha optimizacion. Y si esos datos son para la version definitiva me extrañaria mucho que diera con todo a tope 70 fps, en mi modesta opinion el Doom III dara una media de 70 fps en una 9700 por lo que he leido sobre la programacion del juego.
-
Publicado originalmente por pakohuelva
La alpha del domm III me daba en un 1900+ y radeon 8500 una media de 3 fps y un pico de 15fpsEl fallo de la alpha era el motor de sonido, si se desactivaba la velocidad del juego se multiplicaba
-
Pues yo juraria que lo quite, pero de todas formas volvera ver que pasa, pero no creoq ue me llegue a 70fps, ojala :risitas:
-
no si…desde luego lo de los 70 fps...no se lo cree nadie. dicen que el engine es propio, es demasiado inventar que vaya a salir el HL2 con el engine del Doom III antes que el propio Doom III.
mas que nada el post anterior lo he puesto por la primera linea, estoy deseando que salga ese juego...a ver si empiezan a aparecer capturillas pronto
-
http://discuss.futuremark.com/forum/showflat.pl?Board=gaminggeneral&Number=2146470
Esas podrian ser las imagenes del HL2 que apareceria a primeros de Octubre y que estaria desarrollado con un motor totalmente nuevo. Parece ser que se han mejorado mucho los exteriores, algo de agradecer. Por cierto que los bichos son exactos a los de space ¿troppers? o algo asi que se llamaba la pelicula.
Como critica, para no varirar ;), en la revista la dan mucha importancia a la calidad de los modelos, especialmente los faciales lo que en mi opinion no es nada destacable en este tipo de juegos, es mas, me parecen mas destacables las sobras dinamicas que parece tener que esto. En un shotter nadie se para a mirarle los ojos a los tios que se carga y en escenas en las que hay un dialogo cara a cara suelen introducirse imagenes precreadas y no generadas en tiempo real por el propio juego, es decir, son "trozos" de pelicula que se insertan por lo que no necesariamente dicen nada del motor del juego.
Eso si, el aspecto buenisimo, estoy deseando de darle caña a esos bichos.
-
yuhuuu!
tiene buena pinta, si señor.
en gameguru hay más capturas y pone que andará con una TNT (lo que no dicen es como andará). pero vamos que si anda con una gráfica DX6…no va a ser exclusivo de nvidia.
-
Después de ver esta rama ir creciendo y creciendo, me he parado a leer página y pico… que cuatro son muchas
No es por echar más leña al fuego, pero el tema de que NVIDIA financie a un desarrollador, en este caso Valve para que haga un juego, es normal que le pida algo a cambio ... evidentemente :rolleyes:
Pongamos, por caso, que le obliga a utilizar el lenguaje de programación que ha desarrollado NVIDIA para la creación de gráficos, que por supuesto funciona en sus plataformas, lease GeForce (lo de TNT ya no está tan claro) y por supuesto XBOX :vayatela:
Personalmente, no tengo nada en contra de ATI, especialmente ahora que tiene tarjetas más que aceptables, pero que los PC´s se parezcan a las consolas :nono:
No pienso acostumbrarme a mirar el correo usando un pad :rabieta:
-
A medida que van apareciendo mas fotos del game en la red le auguro un futuro catastrófico a mi gforce 2, no creo que mueva tal cantidad de poligonos con esos efectos suavemente, a ver cuando sale
-
Pues al final parece que todo esto solo eran rumores, como casi siempre, porque por algun sitio he leido que el HL2 se presentara en el E3 en el stand de Ati. Si esto duera cierto seria poco provable que fuera exclusivo para nVidia, ya veremos.
-
Es curioso los comentarios que se han dado al respecto de que nVidia pague para que se optimizen los juegos para sus tarjetas en detrimento de las ATI.
Mmmmmm…. esto que esta haciendo nvidia no es COMPETENCIA DESLEAL? en fin...
No se si volvere a comprar una geforce salvo que me vea obligado...Aunque no lo parezca, yo estoy en contra de que Nvidia y las empresas de videojuegos hagan estas cosas, ya que asi se pierde la libertad de poder elegir la tarjeta que mejor le parezca a uno o que mejor precio y prestaciones tenga.
Por mucho que queramos, a la hora de comprar cualquier cosa entra en juego el resultado que va a dar, independientemente de que la empresa haya pagado para que vaya mejor en su producto en lugar de en el producto del vecino. Aquí da igual que el producto sea tecnológicamente inferior al de la competencia, lo que suele importarnos (y es lógico) es el resultado que dé, independientemente de los caminos seguidos para ese resultado.
Ya se ha mencionado el tema de Intel, que lleva años y años haciendo esto, pero como estamos acostumbrados a ello, no nos extrañamos (El mismo SpaceRay ha sacado el tema).
Creo que todos sabemos donde estaría Intel si no fuera por todas estas tácticas de 'pagar a una empresa para que optmizen para tu producto'', aunque claro, se suele usar el eufemismo de 'Intel promociona o apoya tal programa' en lugar de 'le paga para que optimicen para pentium 4'.
A mí mismo me habeis echado (y reconozco que con razón) los perros alguna vez cuando he dicho que Intel no tendría nada que hacer, que cierto programa iría mejor en un Athlon XP 1900+ que en un Pentium 4 a 2500 si se optimizara por igual para uno que para otro. Por ejemplo en coma flotante, donde un p4 2500 es batido por un XP 1500+.
Textualmente se me contestó 'Y porque mides el rendimiento en coma flotante sin tener en cuenta el SSE2? si tiene SSE2 para algo será, no?'.Las cosas son así, queramos o no, si fuera AMD quien pagara para que el software estuviera optimizado para Athlon en lugar de ser Intel el que lo hace, Intel no tendría nada que hacer porque un XP 'nosecuantos'+ rendiría muchiiiiiiisimo mas que un Pentium 4 a 'nosecuantos' mhz.
Es una pena que se decida la compra de una tarjeta solo por el soporte que tiene de las empresas y no por la calidad y las prestaciones.
Pues eso mismo se hace con los procesadores, y todos lo vemos como algo normal.
Poderoso caballero es Don Dinero, le pese a quien le pese, jejeje
-
Yo, en lineas generales, estoy bastante de acuerdo contigo, ya lo sabes, sin emabrgo tal y como se planteo este tema era bastante diferente al de los microprocesadores.
Aqui no se estaba hablando de software optimizado, cosa que ya tenemos mas que asumida, se estaba hablando de software exclusivo, que no es lo mismo. Es como si el Photoshop al detectar un Amd dejara de ejecutarse.
Pero al final a quedado claro que no era para tanto, de momento, y que la exclusividad no es rentable para nadie.
Ademas, pensemos que el Photoshop por ejemplo es lider en el retoque fotografico y puede pagarse para que sea exclusivo pero con los juegos signifiacira hacer exclusivos al menos 20 titulos al año, algo poco rentable.
-
Todo lo que he dicho no lo digo bastandome en esa supuesta 'exclusividad', sino en lo que se ha planteado después de que habra juegos ESPECIALMENTE OPTIMIZADOS para nVidia, tal como se ha dicho casi textualmente:
'El juego funcionará bien y rapido en una ATI, pero funcionará aún mas rápido y con más efectos y más calidad visual en una nVidia, ya que se aprovecharán las características y efectos específicos de estas tarjetas'
-
Te he entendido perfectamente pero me referia a que siempre se ha discutido desde el punto de vista de la exclusividad y no de la optmizacion y por eso que haya generado tanta polemica.
Por otro lado al final habra que ver en que queda lo de la optimizacion porque sigue siendo demasiado caro para los resultados que ofrece. Si optimizas para nVidia no optimizas nada porque una GF3 no se puede comparar con una 9700 y si optimizas para FX no vendes porque muy poca gente las tienen.
-
Por supuesto, creo que será dificil que se llege a poder afirmar 'el juego va mejor y con mas calidad en una gforce FX que en una ATI 9800', ya que de la forma que se programan los juegos actualmente se aprovechan las capacidades tanto de una tarjeta como de otra.
Programar específicamente para optimizar para nvidia seria mas complicado que programar para optimizar para las todas las gráficas. Habría que programar un juego tarjeta por tarjeta (al menos por familias), programar para FX, para Gforce 4, para Gforce 3…. y hacer otra programación standard en DirectX para todas las demás tarjetas (en las que estarían incluídas las ATI).
El caso no es el mismo que el que ocurre para Intel-AMD, aunque si sacaran un juego tal como lo estan sacando ahora, pero llevará una función que detecta si la tarjeta es GF FX o no, y dependiendo de eso ejecuta el juego por DirectX o lo ejecuta con la programación ESPECÍFICA para la FX, estaríamos ante un caso de optimización para FX, y entonces el juego iría mejor en ésta que en una 9800.
-
Pero se te olvida un punto importante, OpenGL. Si programas en OGL si puedes programar bastante especificamente una tarjeta, de hecho cada tarjeta incluye su propia manera de acelerar estos graficos y un conjuto de OGL diferente.
Pero se pueden contar con los dedos de la mano los motores OGL que se desarrollan y el mas usado, el de ID, siempre se ha destacado por aprovechar a fondo la maquina, sea en Ati o en nVidia, de hecho tiene instrucciones especificas para cada fabricante y sin embargo el resultado es el mismo.
-
¿ Después de todo el lío y la cantidad de noticias y la polémica de la exclusividad de los juegos para Nvidia, en especial el Half Life 2, se va a presentar este juego en exclusiva en el stand de ATI en la feria E3 ?
Es que me parece increible que haya dado toda la vuelta y pase de ser una cosa exclusiva de Nvidia a estar en el stand de ATI. No digo que sea ahora exclusivo de ATI, me refiero a que antes se decía que Nvidia tenía a este juego en propiedad y que era suyo y que hab´´ia apoyado a VALVE y ahora resulta que se presenta en el stand de ATI ???????????? .
http://money.cnn.com/2003/04/23/commentary/game_over/column_gaming/
Y Además para cuando salga el Half Life 2 en Octubre !!!! Que NO sale AHORA , para esa fecha ya habrá muchas noticias del NV40 para Noviembre o Diciembre y volverán a decir cosas parecidas.
Cosas como estas son las que hacen perder credibilidad a las noticias y rumores. Pakohuelva, tengo que darte la razón en que no se pueden creer las cosas que se digan por internet sin que estén 100% comprobadas y que sean oficiales y dichas directamente por la empresa directamente responsable.
Lo que si esta claro es que si quieres jugar bien a este juego no te va a servir una Geforce 2 o una MX (cualquier versión) que es equivalente. Será necesario como minimo una Geforce 3 de cualquier tipo que no sea MX. Tampoco sirven los Geforce 4 MX , son en realidad Geforce 2 con marketing.
Yo tenía una Geforce 2 GTS y ya tenía problemas, y ahora que tengo la Geforce 3 Ti 200, y he puesto el Unreal II The Awakening, me he quedado muy asombrado al ver los espectaculares efectos que se ven con esta tarjeta y que al parecer muchos de ellos es porque la Geforce 3 tiene Pixel shaders y la Geforce 2 y las MX , ni las GEFORCE MX, NO lo tienen y no son compatibles DIRECT X 8.
-
Jeje, esta claro tio que esto es un cachondeo y las empresas juegan a la publicidad en vez de dedicarse a los chips que es lo que tienen que hacer. En este sentido Ati siempre me ha parecido mucho mas seria ya que no suele anunciar este tipo de cosas.
Yo ya estoy en plan hasta que no lo vea no lo creo porque no puede uno fiarse de nada de esto. Claro que la mayor parte de la culpa no la tienen las compañias si no los informadores que de un hecho concreto se montan una pelicula que no veas.
Es como las futuras especificaciones del K9 que han aparecido por ahi, si las lees veras que no tienen sentido, pero por inventar que no quede.