Half-Life 2 y exclusivo para tarjetas nVidia?
-
no si…desde luego lo de los 70 fps...no se lo cree nadie. dicen que el engine es propio, es demasiado inventar que vaya a salir el HL2 con el engine del Doom III antes que el propio Doom III.
mas que nada el post anterior lo he puesto por la primera linea, estoy deseando que salga ese juego...a ver si empiezan a aparecer capturillas pronto
-
http://discuss.futuremark.com/forum/showflat.pl?Board=gaminggeneral&Number=2146470
Esas podrian ser las imagenes del HL2 que apareceria a primeros de Octubre y que estaria desarrollado con un motor totalmente nuevo. Parece ser que se han mejorado mucho los exteriores, algo de agradecer. Por cierto que los bichos son exactos a los de space ¿troppers? o algo asi que se llamaba la pelicula.
Como critica, para no varirar ;), en la revista la dan mucha importancia a la calidad de los modelos, especialmente los faciales lo que en mi opinion no es nada destacable en este tipo de juegos, es mas, me parecen mas destacables las sobras dinamicas que parece tener que esto. En un shotter nadie se para a mirarle los ojos a los tios que se carga y en escenas en las que hay un dialogo cara a cara suelen introducirse imagenes precreadas y no generadas en tiempo real por el propio juego, es decir, son "trozos" de pelicula que se insertan por lo que no necesariamente dicen nada del motor del juego.
Eso si, el aspecto buenisimo, estoy deseando de darle caña a esos bichos.
-
yuhuuu!
tiene buena pinta, si señor.
en gameguru hay más capturas y pone que andará con una TNT (lo que no dicen es como andará). pero vamos que si anda con una gráfica DX6…no va a ser exclusivo de nvidia.
-
Después de ver esta rama ir creciendo y creciendo, me he parado a leer página y pico… que cuatro son muchas
No es por echar más leña al fuego, pero el tema de que NVIDIA financie a un desarrollador, en este caso Valve para que haga un juego, es normal que le pida algo a cambio ... evidentemente :rolleyes:
Pongamos, por caso, que le obliga a utilizar el lenguaje de programación que ha desarrollado NVIDIA para la creación de gráficos, que por supuesto funciona en sus plataformas, lease GeForce (lo de TNT ya no está tan claro) y por supuesto XBOX :vayatela:
Personalmente, no tengo nada en contra de ATI, especialmente ahora que tiene tarjetas más que aceptables, pero que los PC´s se parezcan a las consolas :nono:
No pienso acostumbrarme a mirar el correo usando un pad :rabieta:
-
A medida que van apareciendo mas fotos del game en la red le auguro un futuro catastrófico a mi gforce 2, no creo que mueva tal cantidad de poligonos con esos efectos suavemente, a ver cuando sale
-
Pues al final parece que todo esto solo eran rumores, como casi siempre, porque por algun sitio he leido que el HL2 se presentara en el E3 en el stand de Ati. Si esto duera cierto seria poco provable que fuera exclusivo para nVidia, ya veremos.
-
Es curioso los comentarios que se han dado al respecto de que nVidia pague para que se optimizen los juegos para sus tarjetas en detrimento de las ATI.
Mmmmmm…. esto que esta haciendo nvidia no es COMPETENCIA DESLEAL? en fin...
No se si volvere a comprar una geforce salvo que me vea obligado...Aunque no lo parezca, yo estoy en contra de que Nvidia y las empresas de videojuegos hagan estas cosas, ya que asi se pierde la libertad de poder elegir la tarjeta que mejor le parezca a uno o que mejor precio y prestaciones tenga.
Por mucho que queramos, a la hora de comprar cualquier cosa entra en juego el resultado que va a dar, independientemente de que la empresa haya pagado para que vaya mejor en su producto en lugar de en el producto del vecino. Aquí da igual que el producto sea tecnológicamente inferior al de la competencia, lo que suele importarnos (y es lógico) es el resultado que dé, independientemente de los caminos seguidos para ese resultado.
Ya se ha mencionado el tema de Intel, que lleva años y años haciendo esto, pero como estamos acostumbrados a ello, no nos extrañamos (El mismo SpaceRay ha sacado el tema).
Creo que todos sabemos donde estaría Intel si no fuera por todas estas tácticas de 'pagar a una empresa para que optmizen para tu producto'', aunque claro, se suele usar el eufemismo de 'Intel promociona o apoya tal programa' en lugar de 'le paga para que optimicen para pentium 4'.
A mí mismo me habeis echado (y reconozco que con razón) los perros alguna vez cuando he dicho que Intel no tendría nada que hacer, que cierto programa iría mejor en un Athlon XP 1900+ que en un Pentium 4 a 2500 si se optimizara por igual para uno que para otro. Por ejemplo en coma flotante, donde un p4 2500 es batido por un XP 1500+.
Textualmente se me contestó 'Y porque mides el rendimiento en coma flotante sin tener en cuenta el SSE2? si tiene SSE2 para algo será, no?'.Las cosas son así, queramos o no, si fuera AMD quien pagara para que el software estuviera optimizado para Athlon en lugar de ser Intel el que lo hace, Intel no tendría nada que hacer porque un XP 'nosecuantos'+ rendiría muchiiiiiiisimo mas que un Pentium 4 a 'nosecuantos' mhz.
Es una pena que se decida la compra de una tarjeta solo por el soporte que tiene de las empresas y no por la calidad y las prestaciones.
Pues eso mismo se hace con los procesadores, y todos lo vemos como algo normal.
Poderoso caballero es Don Dinero, le pese a quien le pese, jejeje
-
Yo, en lineas generales, estoy bastante de acuerdo contigo, ya lo sabes, sin emabrgo tal y como se planteo este tema era bastante diferente al de los microprocesadores.
Aqui no se estaba hablando de software optimizado, cosa que ya tenemos mas que asumida, se estaba hablando de software exclusivo, que no es lo mismo. Es como si el Photoshop al detectar un Amd dejara de ejecutarse.
Pero al final a quedado claro que no era para tanto, de momento, y que la exclusividad no es rentable para nadie.
Ademas, pensemos que el Photoshop por ejemplo es lider en el retoque fotografico y puede pagarse para que sea exclusivo pero con los juegos signifiacira hacer exclusivos al menos 20 titulos al año, algo poco rentable.
-
Todo lo que he dicho no lo digo bastandome en esa supuesta 'exclusividad', sino en lo que se ha planteado después de que habra juegos ESPECIALMENTE OPTIMIZADOS para nVidia, tal como se ha dicho casi textualmente:
'El juego funcionará bien y rapido en una ATI, pero funcionará aún mas rápido y con más efectos y más calidad visual en una nVidia, ya que se aprovecharán las características y efectos específicos de estas tarjetas'
-
Te he entendido perfectamente pero me referia a que siempre se ha discutido desde el punto de vista de la exclusividad y no de la optmizacion y por eso que haya generado tanta polemica.
Por otro lado al final habra que ver en que queda lo de la optimizacion porque sigue siendo demasiado caro para los resultados que ofrece. Si optimizas para nVidia no optimizas nada porque una GF3 no se puede comparar con una 9700 y si optimizas para FX no vendes porque muy poca gente las tienen.
-
Por supuesto, creo que será dificil que se llege a poder afirmar 'el juego va mejor y con mas calidad en una gforce FX que en una ATI 9800', ya que de la forma que se programan los juegos actualmente se aprovechan las capacidades tanto de una tarjeta como de otra.
Programar específicamente para optimizar para nvidia seria mas complicado que programar para optimizar para las todas las gráficas. Habría que programar un juego tarjeta por tarjeta (al menos por familias), programar para FX, para Gforce 4, para Gforce 3…. y hacer otra programación standard en DirectX para todas las demás tarjetas (en las que estarían incluídas las ATI).
El caso no es el mismo que el que ocurre para Intel-AMD, aunque si sacaran un juego tal como lo estan sacando ahora, pero llevará una función que detecta si la tarjeta es GF FX o no, y dependiendo de eso ejecuta el juego por DirectX o lo ejecuta con la programación ESPECÍFICA para la FX, estaríamos ante un caso de optimización para FX, y entonces el juego iría mejor en ésta que en una 9800.
-
Pero se te olvida un punto importante, OpenGL. Si programas en OGL si puedes programar bastante especificamente una tarjeta, de hecho cada tarjeta incluye su propia manera de acelerar estos graficos y un conjuto de OGL diferente.
Pero se pueden contar con los dedos de la mano los motores OGL que se desarrollan y el mas usado, el de ID, siempre se ha destacado por aprovechar a fondo la maquina, sea en Ati o en nVidia, de hecho tiene instrucciones especificas para cada fabricante y sin embargo el resultado es el mismo.
-
¿ Después de todo el lío y la cantidad de noticias y la polémica de la exclusividad de los juegos para Nvidia, en especial el Half Life 2, se va a presentar este juego en exclusiva en el stand de ATI en la feria E3 ?
Es que me parece increible que haya dado toda la vuelta y pase de ser una cosa exclusiva de Nvidia a estar en el stand de ATI. No digo que sea ahora exclusivo de ATI, me refiero a que antes se decía que Nvidia tenía a este juego en propiedad y que era suyo y que hab´´ia apoyado a VALVE y ahora resulta que se presenta en el stand de ATI ???????????? .
http://money.cnn.com/2003/04/23/commentary/game_over/column_gaming/
Y Además para cuando salga el Half Life 2 en Octubre !!!! Que NO sale AHORA , para esa fecha ya habrá muchas noticias del NV40 para Noviembre o Diciembre y volverán a decir cosas parecidas.
Cosas como estas son las que hacen perder credibilidad a las noticias y rumores. Pakohuelva, tengo que darte la razón en que no se pueden creer las cosas que se digan por internet sin que estén 100% comprobadas y que sean oficiales y dichas directamente por la empresa directamente responsable.
Lo que si esta claro es que si quieres jugar bien a este juego no te va a servir una Geforce 2 o una MX (cualquier versión) que es equivalente. Será necesario como minimo una Geforce 3 de cualquier tipo que no sea MX. Tampoco sirven los Geforce 4 MX , son en realidad Geforce 2 con marketing.
Yo tenía una Geforce 2 GTS y ya tenía problemas, y ahora que tengo la Geforce 3 Ti 200, y he puesto el Unreal II The Awakening, me he quedado muy asombrado al ver los espectaculares efectos que se ven con esta tarjeta y que al parecer muchos de ellos es porque la Geforce 3 tiene Pixel shaders y la Geforce 2 y las MX , ni las GEFORCE MX, NO lo tienen y no son compatibles DIRECT X 8.
-
Jeje, esta claro tio que esto es un cachondeo y las empresas juegan a la publicidad en vez de dedicarse a los chips que es lo que tienen que hacer. En este sentido Ati siempre me ha parecido mucho mas seria ya que no suele anunciar este tipo de cosas.
Yo ya estoy en plan hasta que no lo vea no lo creo porque no puede uno fiarse de nada de esto. Claro que la mayor parte de la culpa no la tienen las compañias si no los informadores que de un hecho concreto se montan una pelicula que no veas.
Es como las futuras especificaciones del K9 que han aparecido por ahi, si las lees veras que no tienen sentido, pero por inventar que no quede.