Half-Life 2 y exclusivo para tarjetas nVidia?
-
Ahora una cosilla que he visto por aquí, y es que se excusa a nvidia diciendo que todos los juegos seguirán siendo compatibles con las tarjetas de la competencia, aunque con menos efectos: Creo que ha llegado ya un punto en que lo que de verdad será decisivo será la calidad, los efectos extra. Cualquier tarjeta moderna mueve el quake a chorrocientos frames por segundo, la cosa pues estará en la calidad con que lo hace.
Una cosa más, ¿me podrías dar un enlace o algo en el que pueda apreciar la naturaleza de los acuerdos entre mocosoft e intel? Lo digo porque creo que no son comparables al del tema de este post. Me explico, tanto moco como intel apoyan al usb 2.0 en detrimiento del firewire, acuerdo entre moco, intel y compaq para impulsar internet en la enseñanza… Y así muchos otros que podáis leer por ahí. Es decir, empresas punteras en distintos pero dependientes apartados de la informática se alían para confirmar las tendencias del sector (estandarización, en el caso de usb 2.0), o se alían para montar aulas informáticas en escuelas (que sí, lo hacen para que luego los chavales acaben comprando sus productos, pero coño, de eso se trata, y ahí están los niños con internet en clase). Y no os creáis que amd es un santo, que junto con con intel y microsoft nos la van a liar con el palladium: http://bulmalug.net/body.phtml?nIdNoticia=1398 (aunque esto ya es tema para otro post).
En resumen, lo de nvidia y electronic arts lo considero competencia desleal. Y si hubiera algún juez honesto, también lo haría. Ahora, que explícale tú a un juez que aunque un juego funcione en la competencia, las optimizaciones de código hacen que no se pueda mostrar tal o cual efecto. Y explícale que el simple hecho de no disponer de determinados efectos especiales son factores decisivos de mercado, y no meras características extra.
Os paso de nuevo la pelota…........
-
Si es la historia de siempre, el que tiene más pasta, antes o después se recupera del 'bache' y se coloca a la cabeza; con Intel pasará lo mismo "más que nos pene", despedirá a los que le hicieron el PIII, contratará genios que le hagan un Itanium que sea la hostia y ya tiene la gloria ganada… si es que es penoso pero es así; Nvidia se gastará lo que haga falta para ser líder en el mercado, lo que interesa es ser el standard, amos que Micro$oft no sabe que tiene más copias piratas que legales por ahí rulando, pero es que le compensa ser el standard.
Imagina que ahora inventan un mega-hiper sistema de seguridad que te regalan un llavero USB codificado con un clave de 1Mb para el nuevo sistema operativo del 2006 y que te cobran 400€ por la licencia y que es imposible de piratear, pues yo directamente formatearía la partición donde tengo windows y dejaría sólo Red Hat y ya me volvería yo loco para poder echar a andar en linux todo lo que no me va (3d Max, photoshop…) lo que interesa es ser el punto de referencia y eso lo hace el que más pasta tenga... si es que esta vida es una 'porca miseria':nono:
Pos eso, es una realidad histórica que todos los imperios caen algún día, y Microsoft y Nvidia caerán algún día (antes Microsoft me da a mí) pero todavía les queda mucha guerra por dar.
-
Si es lamentable que se hagan estas cosas, pero es lo mismo que los empleados de una empresa que por subir y ascender para ser directivos de la empresa o al menos tener un cargo superior hacen cualquier cosa con tal de conseguirlo, y no les importa si tienen que joder a otras personas o joder a la competencia
Ya lo ha dicho el director de Nvidia, "Vamos a conseguir ser líderes nuevamente cueste lo que cueste y de la forma que sea" , no es la forma más sana y legal :rolleyes: pero bueno ya sabeis que en las empresas todo vale con tal de ganar dinero. Yo no estoy de acuerdo que se hagan estas cosas, pero ya lo hacen otras empresas y Nvidia no es la única, el mayor ejemplo es micro$oft.
Y como tu dices Axon, lo que interesa es ser considerado el estandard para que todos lo usen, y sea la referencia a seguir. Por eso Microsoft no está TAN interesado en hacer que no se copie su Office, ya que así se impone el estandard Word y Excel y no otros formatos. Y lo mismo con Windows, Internet explorer, etc.
Nidia intenta poner un estandard para que la gente se deje llevar por el marketing y la popularidad, lo cual no quiere decir que sea la mejor.
Ya se verá en la feria de E3 en mayo
-
digo yo…que estos nuevos juegos estarán hechos usando Cg, lo que deja fuera a Ati.
por cierto que no veo la necesidad de tener 3 ramas sobre lo mismo :rolleyes:
-
Mmmmmm…. esto que esta haciendo nvidia no es COMPETENCIA DESLEAL? en fin…
No se si volvere a comprar una geforce salvo que me vea obligado... ahora que estaba terminando el 2º equipo pensaba en una gf4ti4200.. pero habra que tirar para la Xabre 600 posiblemente:rolleyes: o la ati 9500 de 128mb (pasarla a 9500PRO)
Saludos
-
Yo si me pilara una GF sería sin duda por sus drivers para linux, en eso sí que le saca ventaja a ATI.
-
¿ Y ahora ATI va a tener envidia de Nvidia ?
Nvidia quiere que todos los que no tengan un chip de ellos sientan envidia de los que tienen una Geforce y más aún si es una Geforce FX
Es broma, los ATI radeon 9500 y 9700 y los nuevos chips son estupendos y todos han tenido envidia de la radeon 9700 incluso Nvidia.
Es una pena que se decida la compra de una tarjeta solo por el soporte que tiene de las empresas y no por la calidad y las prestaciones.
No creo que sea competencia desleal. Intel también ha tenido mucho tiempo software optimizado para sus pentium 4 y Pentium III y otros pentium para sus instrucciones MMX, y AMD tuvo que poner estas instrucciones en sus chips para poder competir con Intel y que los programas fueran compatibles con AMD y poder beneficiarse de las mejoras que daban estas instrucciones y sus optimizaciones, de hecho por eso cuando se anunció el Athlon XP, AMD sacó un anuncio que decía que ya no había diferencia entre usar el Adobe photoshop en un chip Intel y en un XP por que este último incluía las optimizaciones de los chips de Intel.
Creo que ATI tendrá que hacer algo para ser compatible con los chips de Nvidia. O bien los hackers o fans de ATI tendrna que hacer algún emulador o convertidor o algo para poder aprovechar esas funciones extra siempre y cuando no sean funciones especificas de hardware.
-
Aunque llego tarde aqui dejo mis reflexiones despues de haber leido casi todos los comentarios: Me parece una jugada rastrera por parte de Nvidia, aunque no me extraña que su aliada sea EA Si se limitasen a poner una pegatina en las cajas o incluso a optimizar el software para las Nvidia po´fale, pero me temo que haran el juego como siempre y para el resto de tarjetas lo "caparan", si no ya me diras que le van a implementar para que se noten mejoras a favor de una GF3 con respecto a una 9700… Lo de hacer juegos exclusivos para Nvidia no creo que pase, ya que estamos hablando de perder un 40% de mercado (aproximadamente) y no creo que Nvidia pueda pagar eso. Ademas, no se que tal le saldra la jugada a Nvidia, porque el que en la caja ponga que se juega mejor con una FX no creo que impulse a alguien que no entiende mucho de este mundillo a gastarse la pasta que cuesta, y al que entiende tampoco porque ya sabe como se las gasta nvidia :nono:
En resumen, que yo seguire con mi ATi Radeon 9100 y que si les da por sacar juegos exclusivos tarde o temprano dejaran de serlo y podre disfrutarlos igualmente y encima perderan ventas por listos :sisi:
-
Publicado originalmente por bluesman
Yo si me pilara una GF sería sin duda por sus drivers para linux, en eso sí que le saca ventaja a ATI.Totalmente de acuerdo. En eso si que se nota, la calidad y facilidad de sus drivers bajo Linux es mucho mayor que el soporte que da Ati. En eso solamente estaria de acuerdo con nVidia xD
Salu2!
-
Al parecer la fiebre de FX se extiende :rabieta:
Ya he visto a 3 empresas que dicen que van a hacer juegos aprovechando las mágnificas capacidades de este chip de Nvidia y que la ATI no es capaz de hacer ¿ no se a que se refieren?
El juego AQUANOX 2 también se va a hacer con efectos especiales hechos para la Geforce FX y que dicen que va a ser uno de los primeros en demostrar de lo que es capaz de hacer el chip FX.
http://www.aquanox-portal.com/e/news/news.htm
Massive Development has been invited to present our conclusions of working with the newly developed GeForce FX in our forthcoming release AquaNox 2: Revelation. This title will be one of the first games to demonstrate the graphical powers of GeForce FX and Direct X9 support. Commenting on their guest speakers, Bill Rehbock, NVIDIA’s Director of Development said:
También un juego lllamado STALKER que dicen que a provocado una gran asombro en algunas ferias y conferencias también usará efectos y gráficos hechos para Geforce FX
http://www.stalker-game.com/index_eng.html
Y en esta entrevista
http://www.gengamers.com/html/s_t_a_l_k_e_r__interview_page_.html
dicen
Nvidia is our technical partner for S.T.A.L.K.E.R. and the engine will offer support of quite a few FX features. Geforce FX offers excellent shader possibilities, and we are going to make an extensive use of that. We also design dedicated renderer for DX9 class hardware with fully real-time dynamic lighting, soft, physically correct shadows cast from everything onto everything, true per-pixel lighting, 1-3 millions of polygons per frame, etc
O sea que van a usar varios efectos de la FX, principalmente de los shader.
Aunque luego dicen
Owners of other brands of high-end graphic hardware will not be deprived of enjoying S.T.A.L.K.E.R. with some of the state-of-the-art effects their cards can offer.
o sea que los que no tengan nvidia no serán privados de efectos espectaculares que sus tarjetas puedan ofrecer –-- entonces ¿ serán los mismos efectos o serán mejores los efectos para Nvidia?
Según esta otra web
http://www.pixelrage.ro/news/full_story/EpVpEuZpkEHolITfgY.php
La empresa que hace este juego pidió reunirse con ATI y Nvidia para poder ofrecer los mejores efectos basandose en ambos chips gráficos, pero al parecer ATI no les respondió y entonces Nvidia les dió todo el apoyo y toda la ayuda necesaria y un buen hardware para trabajar. Y ahora están trabajndo en un motor de juego basado en el Nv35.
Según dicen luego , este juego va a funcionar en ATI bien, pero en una FX se verá más rápido y tendrá una serie de EFECTOS UNICOS de la FX.
On ATI boards Stalker will run fast, but on NVIDIA boards it will run even faster, plus gamers will get a set of unique effects, namely due to close work with the company enginers and support of NVIDIA hardware features.
Y Nvidia quiere que más y más empresas hagan juegos que incorporen funciones y efectos exclusivos para la Geforce FX.
Esto no quiere decir que haya que comprarse una 5800 Ultra, ya que al parecer estos efectos únicos están disponibles en cualquier modelo de la gama FX. Incluso en la 5200 que vale 109€
-
Al parecer la fiebre de FX se extiende :rabieta:
Ya he visto a 3 empresas que dicen que van a hacer juegos aprovechando las mágnificas capacidades de este chip de Nvidia y que la ATI no es capaz de hacer ¿ no se a que se refieren?
El juego AQUANOX 2 también se va a hacer con efectos especiales hechos para la Geforce FX y que dicen que va a ser uno de los primeros en demostrar de lo que es capaz de hacer el chip FX.
http://www.aquanox-portal.com/e/news/news.htm
Massive Development has been invited to present our conclusions of working with the newly developed GeForce FX in our forthcoming release AquaNox 2: Revelation. This title will be one of the first games to demonstrate the graphical powers of GeForce FX and Direct X9 support. Commenting on their guest speakers, Bill Rehbock, NVIDIA’s Director of Development said:
También un juego lllamado STALKER que dicen que a provocado una gran asombro en algunas ferias y conferencias por su estupenda calidad gráfica también usará efectos y gráficos hechos para Geforce FX
http://www.stalker-game.com/index_eng.html
Y en esta entrevista
http://www.gengamers.com/html/s_t_a_l_k_e_r__interview_page_.html
dicen
Nvidia is our technical partner for S.T.A.L.K.E.R. and the engine will offer support of quite a few FX features. Geforce FX offers excellent shader possibilities, and we are going to make an extensive use of that. We also design dedicated renderer for DX9 class hardware with fully real-time dynamic lighting, soft, physically correct shadows cast from everything onto everything, true per-pixel lighting, 1-3 millions of polygons per frame, etc
O sea que van a usar varios efectos de la FX, principalmente de los shader.
Aunque luego dicen
Owners of other brands of high-end graphic hardware will not be deprived of enjoying S.T.A.L.K.E.R. with some of the state-of-the-art effects their cards can offer.
o sea que los que no tengan nvidia no serán privados de efectos espectaculares que sus tarjetas puedan ofrecer –-- entonces ¿ serán los mismos efectos o serán mejores los efectos para Nvidia?
Según esta otra web
http://www.pixelrage.ro/news/full_story/EpVpEuZpkEHolITfgY.php
La empresa que hace este juego pidió reunirse con ATI y Nvidia para poder ofrecer los mejores efectos basandose en ambos chips gráficos, pero al parecer ATI no les respondió y entonces Nvidia les dió todo el apoyo y toda la ayuda necesaria y un buen hardware para trabajar. Y ahora están trabajndo en un motor de juego basado en el Nv35.
Según dicen luego , este juego va a funcionar en ATI bien, pero en una FX se verá más rápido y tendrá una serie de EFECTOS UNICOS de la FX.
On ATI boards Stalker will run fast, but on NVIDIA boards it will run even faster, plus gamers will get a set of unique effects, namely due to close work with the company enginers and support of NVIDIA hardware features.
Y Nvidia quiere que más y más empresas hagan juegos que incorporen funciones y efectos exclusivos para la Geforce FX.
Esto no quiere decir que haya que comprarse una 5800 Ultra, ya que al parecer estos efectos únicos están disponibles en cualquier modelo de la gama FX. Incluso en la 5200 que vale 109€
¿ Se extenderá esta tendencia a de efectos únicos a más juegos de otras empresas?
Pues creo que sí. Ya que en este caso no es un juego exclusivo, sino que como dice la pegatina del slogan, si quieres jugar bien al juego tienes que tener una Nvidia y que sea de la familia FX.
Podría poner más ejemplos pero creo que es suficiente
Aunque no lo parezca, yo estoy en contra de que Nvidia y las empresas de videojuegos hagan estas cosas, ya que asi se pierde la libertad de poder elegir la tarjeta que mejor le parezca a uno o que mejor precio y prestaciones tenga.
Como ya he dicho en otros posts según las últimas reviews parece que las ATI son actualmente mejores que las Nvidia, pero ¿ de que sirve que sean mejores las ATI y vayan más rápido si los juegos van a estar optimizados y producidos pensando en las Geforce FX ? A pesar de que funcionen bien en una ATI pero sin esas cosas únicas y sin estar optimizadas. Tal vez sea necesario esperar y ver lo que pasa.
Incluso parece que las geforce 4 4600 es más rápida que la FX 5600 , pero claro al ser de téconología inferior, tampoco serviría para ver los nuevos efectos. :rabieta: :rabieta:
Y que tienen que decir los de s3 que van a sacar su deltachrome, tampoco van a estar optimizados para este chip ya que tiene menos mercado que ATI.
-
No quiero entrar a discutir sobre este tema porque e smucho menos importante de lo que parecia al principio pero en los ultimos casos que comenta SpaceRay hace referencia al uso de las DirectX9 lo que significa que no va a ser exclusivo para FX ni mucho menos.
He estado leyendome la letra pequeña de la mayoria de juegos supuestamente exclusivos para nVidia y en casi todos los casos se programaran utilizando Dx9 y por lo tanto no seran exclusivos para nVidia ni mucho menos.
Para que los juegos fueran exclusivos tendrian que ser o bien OGL o bien programarlos a bajo nivel cosa que a dia de hoy solo hacen 3 ó 4 compañias.
Tambien habia rumores que decian que el Doom III seria exclusivo para Xbox y "chorradas" de ese tipo y pienso que la gente ya se esta colando con el tema este y que no es para tanto, van a ser muy pocos los juegos exclusivos. En el caso del Doom parece ser que M$ habria soltado un monton de dinero para que el juego saliera temporalmente solo para la Xbox entre las consolas, algo que, por otro, lado parece logico teniendo en cuenta las similitudes entre la consola y un PC.
Ati sin embargo sigue una politica mucho mas acertada y sin dar tanta publicidad como hace nVidia resulta que ya tiene un juego OPTIMIZADO para Radeon (R300) http://mirror.ati.com/shopati/promotions/rb6ravenshield.html nVidia podra tener mas dinero pero Ati tiene una politica mucho mas etica y en vez de marketing ofrece datos.
-
a ver yo no es por repetirme ni porque esté a favor de nvidia pero todo esto de la optimizacion para FX…los shaders y tal...viene por el Cg de nvidia, que parece que hace más facil implementar estos efectos, y que ATI no tiene pensado adoptar pq dicen que está optimizado para chips nvidia (lógico).
ya hay un juego que utiliza Cg, este. parece que el juego en sí es bastante flojo pero muestra las posibilidades de Cg. y no es solo para FX, aunque supongo que con una FX habrá algún efecto más que con una GF4 Ti.
-
Yo tampoco quiero repetirme pero ya lo he comentado por algun sitio, el Cg (C for graphics) es una extension de C para programar graficos y podiamos decir que es un nuevo lenguaje al igual que lo son el C clasico o el visual basic. Partiendo de esto, si un juego va a utilizar las Dx te da lo mismo programarlo en Basic, en C, en Cg o en ada, una vez esta compilado tendras un ejecutable que utilizara las bibliotecas DirectX para acceder al hardware y dependere de estas que tu grafica funcione correctamente o no.
En DirectX todas las funciones se llaman igual independientemente del hardware precisamente porque es un HAL, una capa de astraccion que permite programar una vez y que se ejecute sobre cualquier grafica que cumpla con los requisitos Dx.
Cuando un juego sale para Dx que funcione en una grafica que lo sporte dependera finalmente solo de los drivers y no de con que lenguaje se ha implementado.
Por esta razon si un juego se anuncia como Dx sera compatible con todas las tarjetas que cumplan esta norma, e incluso, con las que no lo cumplen ya que las Dx ejecutan por software lo que no permite el hardware.
A partir de aqui podria ser que determinadas carcateristicas exceden de la norma Dx y necesiten un determinado hardware (hasta ahora no ha pasado) pero serian ciertas optimizaciones sobre el juego original y no el juego en si mismo.
Es que si pensamos todo lo que hemos puesto hasta ahora llegamos a la conclusion de que no tiene sentido para un desarrollador diseñar un juego que solo corra en la FX cuando esta no tiene ni un 10% del mercado. nVidia no tiene tanto dinero para compensar las perdidas de hacer algo asi.
Resumiendo, en principio un juego que sea Dx es muy dificil que sea exclusivo para una tarjeta, al menos por razones tecnicas, otra cosa seria que al no detectar determinado chip no se ejecutara. En la programacion OGL es donde si hay diferencias porque cada fabricante implemente un conjunto reducido de funciones diferente a las del otro.
Y sobre la potencia de las FX o sus caracterisitcas especiales hace tiempo aparecio una entrevista con Carmarck preguntandole sobre las diferencias entre programar en una FX y en una 9700 y sus conclusiones fueron que venia a ser lo mismo ya que ambas hacian las mismas cosas de diferente manera y que una tenia unas cosas que la otra no y al reves pero que todo esto se solucionaba si el programador lo hacia bien obteniendose el mismo resultado visual.
Al final en un hardware grafico lo "unico" que importa es que sea capaz de mover una gran cantidad de poligonos por segundo, los "refinamientos" si no los tiene los pude programar en desarrollador.
-
claro, si estamos de acuerdo.
lo que yo creo que ocurre es que si estos "refinamientos" son más faciles de implementar usando Cg y además nvidia anima a los desarrolladores a hacerlo así (y solo así), pues llegamos a la situación que describe SpaceRay en su último post.
por supuesto de eso a que los juegos solo vayan con una FX hay un mundo.
-
En eso si estamos de acuero, nVidia esta compensando su poco "arte" con el Fx a base de talon a los desarrolladores.
De todas formas Ati tiene el rendermokey que es un entorno para programar sus tarjetas.
Al final pasa lo de siempre, Ati hace lo mismo que nvidia pero la primera no genera apenas publicidad y la segunda se pasa.
Pero ya veremos que pasa, si los juegos que deberian ir mejor en las Fx resulta que no son tan buenos nVidia puede darse con un canto en los dientes y lo mejor es que no lo van a ser porque las compañias que estan anunciando el soporte de nVidia no son precisamente de las que se curran la programacion a nivel de maquina de los juegos, no hay mas que ver a EA y su Simcity que todavia no se sabe muy bien que maquina necesita para correr en condiciones, algo asi como un doble Xeon y 8Gb de ram :muerto:
Ya me veo yo a los desarrolladores cuando un juego vaya lento en una maquina diciendo: "No, es que optimizado para una 5800".
-
Bueno, despues de éste chorro de post que he leido, me da a mi que la conclusión que saco es…
Donde queda el resto de fabricantes? Esta claro que los que dominan son ati y nvidia, pero de ahi a que se globalice de esta forma? Ahi estan las trident (uff) S3, o incluso las sis con su xabre, para éstos ya que no "tienen un duro" no existira ningun tipo de capacidad de respuesta, y por tanto volveremos a los de siempre, ati y nvidia dándose palos uno al otro, y las esperanzas de que se abriera el mercado (lo cual supone una gran ventaja para el usuario final) quedan por los suelos.En total, no me parece bien a lo que ésta llegando ésta competencia.:|
Saludos -
La cuestion es que hoy por hoy, lamentablemente, no hay mas fabricantes que Ati y nVidia, al menos en este segmento.
Trident solo fabrica para portatiles y sus famosos, esparados, potentisimos y economicos Blade XP4 estan con Bin Laden. S3 como tal ya no existe puesto que forma parte de Via y no hay muchas esperanzas de que saque un chip grafico que no este integrado en un chipset, anuncion un deltachrome o algo asi para despues del verano pero ya de salida sus caracteristicas no eran demasiado buenas asi que para el verano….
Sis ha anunciado su intencion de vender su linea de produccion de chips graficos, no signifiaca dejar de desarrollarlos pero si de fabricarlos. Esto viene a ser como lo que paso con el Kyro de PowerVR. Es complicado para una empresa que no se dedicca exclusivamente a fabricar chips graficos mantener una linea de produccion tan costosa.
Tambien tenemos a Matrox que ha anunciado dos nuevas tarjetas basadas enel Perhalia http://www.websitio.net/modules.php?name=News&file=article&sid=174&mode=&order=0&thold=0 . No creo que supongan ninguna revolucion ni mucho menos, siguen destinandose a un mercado muy especifico.
Tambien estan los ¿BitBoys? y su revolucionario chip com memoria embevida que lleva algo asi como 10 años de desarrollo y nunca aparece.
Y por supuesto Intel que fabrica chips graficos para integrarlos en sus chipsets y que casualmente es el mayor productor de chips graficos precisamente por esto.
Como vemos la cosa esta entre Ati y nVidia, pero puede ser que esto cambie pronto (2 años) ya que Ati ya ha anunciado que aumentara el tiempo de desarrollo de sus chips y nVidia no lo ha anunciado pero ya lo ha hecho con lo que si estos fabricantes se relajan un poco podrian darle tiempo a otros a subrirse al carro.
-
Pakohuelva
Me alegro de verte de vuelta por aqui, ahora como usuario normal :sisi:
Estoy totalmente de acuerdo con todo lo que has dicho, pero leyendo todos tus post últimos , perdona que te diga pero parece que no has entendido bien mi último y largo post.
Yo creo que según mi último post esta claro que NO van a hacer juegos exclusivos para Nvidia, ya que no les interesa para nada y se perderian muchas ventas.
En los ejemplos que he puesto se dice claramente que lo juegos van a funcionar perfectamente en ATI y en otra tarjeta compatible.
El problema ya no es que sean exclusivos para una chip determinado, sino que los juegos los van a hacer pensando en las funciones y efectos de una FX y usando las funciones exclusivas de Nvidia (que realmente no se cuales son) y que entonces los que tengan ATI podrán también disfrutar del juego pero con menos efectos y menos optimización y tal vez con menos rendimiento, pero que esto último supongo que será compensado por la diferencia de rendimiento entre una FX y una radeon.
Por eso es la pegatina del slogan de Nvidia, dice que si no tienes un chip de nvidia , no lo vas a ver tal y como lo crearon los programadores.
Yo recuerdo cuando estaba el Quake , no se si era el II o el III, que con tarjetas gráficas antigúas, funcionaba perfectamente pero se veía muy cutre y falto de muchas cosas, le faltaban muchos de los efectos espectaculares de luz y particulas y humo y otros. Cuando disparabas no se veia el humo, ni las particulas producidas por el disparo, y el ambiente no tenia ninguna iluminacion adecuada y atmosferica, era todo igual y faltaban muchas texturas y muchos detalles. Por lo que si querías jugar bien con todos los efectos tenias que tener una buena tarjeta moderna no necesariamente rápida, solo que tuviera el hardware necesario.
En el Unreal también pasaba algo parecido.
No digo que ahora en esta epoca que estamos vaya a psar lo mismo, pero no se dice QUE COSAS EXCLUSIVAS son las que quieren ponerle a los juegos de Nvidia para que se destaquen frente al mismo juego en una tarjeta ATI.
¿ es solo marketing y los efectos serán minimos y poco apreciables ?
Y lo de que el juego sea Direct X y se use CG es verdad que va a funcionar en ambas tarjetas , ya que como dices el Direct X y el CG es totalmente compatible con las radeon y la explicación que has dado es correcta. Pero de alguna manera el juego va a detectar si tienes una nvidia o no y activará los efectos especiales únicos.
Y es verdad que Nvidia tiene una campaña visual de marketing y publicidad enorme y más que ATI y en las conferencias y exposiciones se pasan. Aqui se puede ver como en la presentacion del Geforce FX han contratado a actores disfrazados y han montado un escenario alienigena.
http://www.digit-life.com/articles2/gffxlaunch/
en el lanzamiento de la Quadro FX son bastante más discretos y no hay tanto escándalo de escenario ya que se supone que son personas más serias y profesionales que lo que quieren ver es la calidad y rendimiento que esta nueva tarjeta puede ofrecer y no un show teatral.
http://www.digit-life.com/articles2/gffx/nvidia-feb2k3.html
La web de Nvidia esta bastante mejor hecha que la de ATI y es más atractiva, elegante y más profesional y tiene mucho más información. Pero claro lo que cuenta son los hechos y la realidad y no el marketing, aunque este ultimo ayuda mucho a dar buena imagen a la empresa.
-
bueno pues volviendo un poco al HL 2…parece que para dentro de una semanita habrá novedades, según esta página.
y esto está sacado de ahí:
At a glance, you could mistake this game for a DVD movie. The Half-Life 2 engine, built from the ground up, and boasting cinematic quality graphics at blistering frame rates, looks like it will easily topple Doom3's engine before ID even releases it!
The Dev team showed us a demo of a working alpha just to prove that the game's cinematic-style graphics were in-fact, being rendered real time. It was nothing short of amazing, especially considering that it was cutting 70fps in highest detail on a 1.7ghz processor and Geforce 4 Ti4200!