Half-Life 2 y exclusivo para tarjetas nVidia?
-
Me parece que la noticia no es de broma y va a ser cierta :rabieta: :rabieta:
Yo todavía no me lo puedo creer, pero esto SI que es cierto y no es ninguna broma porque está en la página oficial de Nvidia y es un comunicado oficial de prensa.
http://www.nvidia.com/view.asp?IO=IO_20030409_7420
NVIDIA FIRMA ACUERDO DE EXCLUSIVIDAD CON EA
Acabo de ver esta noticia donde Nvidia acaba de firmar un contrato con la empresa de videojuegos de Electronic Arts (EA) para hacer juegos EXCLUSIVOS para los chips de Nvidia
NVIDIA also announced that it has been awarded the exclusive OEM bundling rights to certain EA PC titles. Under terms of the agreement, NVIDIA will act as sole OEM distributor of certain PC titles published
O sea que Nvidia tiene el derecho exclusivo como distribuidor de algunos de los juegos producidos por EA
EA is excited about this relationship as it allows us to continue our long standing relationship with NVIDIA,” said Scott Cronce, vice president and chief technology officer at EA. “Working with NVIDIA’s high-quality GPUs will help us as we continue to enhance graphics performance in our games and produce cutting-edge content.”
EA dice que ha elegido firmar el acuerdo con Nvidia porque de esa manera pueden continuar creando juegos mejores con mayor calidad gráfica. Con lo cual ellos suponen que Nvidia es la mejor empresa de gráficos y aqui lo aclaran más
Under terms outlined by their agreement, NVIDIA hardware will become the preferred PC graphics platform for EA’s worldwide studios to give its developers the best solution for realizing their creative visions. EA development teams will use PCs powered by NVIDIA GPUs to create eye-popping 3D effects while allowing full compatibility across all PC gaming systems featuring NVIDIA hardware
O sea que los ordenadores de EA en todo el mundo (o al menos la mayoría) tendrán chips de Nvidia por ser la mejor solución gráfica para desarrolar sus creaciones. Y que van a perimitir TOTAL COMPATIBILIDAD en TODOS los PC que posean hardware de Nvidia.
¿ Y los que tengan ATI que van a hacer? ¿ A eso le llaman total compatibilidad ?
¿ que va a decir ATI de esta noticia? ¿ Ellos también van a hacer juegos sólo para ATI?
Creo que va a comenzar una nueva era donde lo de PC Compatible no lo va a ser tanto a partir de ahora y habrá que especificar para que PC determinado va a ser un juego :rolleyes: :susto:
Adiós PC 100% compatible
-
Buenas a todos, no se si entra muy bien en el topic, pero queria decir una cosa:
La semana pasada hicieron en mi universidad (La Salle) unas conferencias que trataban de temas sobre el "e-entertainment", i una de ellas era titulada como "Las nuevas tecnologias al desarrollar los videojuegos", si no me acuerdo mal.
Entre tantos habia un señor de nVidia. La conclusion fue k kerian dejar mas libre de calculos graficos en la cpu i dejar la cpu para operaciones algebraicas que hacen k podamos ver escenarios impresionantes!
Pos lo dicho, la empresa Digital Legends, nos presento un modelo de espacio virtual donde te movias por un escenario 3D de un campo (estilo señor de los anillos) i te podias mover como kerias, incluso desde fuera del planeta hasta tocando la hierba….todo eso estaba movido por una geforce2 MX i tenia los grficos mas buenos SIN comparacion k un UT2003 en maxima resolucion, un detalle impresionante!, NI UN TROMPIC!!, la resolucion era espectacular como a 100000km del suelo tanto a 1 cm!!!! era impresionante, aun no me lo creo. No era lo tipico k son como fotos i de lejos se ve bien i de cerca una mierda, no no, cada escala era impresionante!. Todo esto es gracias a operaciones fisicas en campos i operaciones algebraicas tope chungas. Tambien nos mostraron mas o menos el secreto, i eske en vez de usar millones de poligonos en un objeto pues usar muy pocos pero las texturas k hay alli con unas mallas de no se ke, de mas calidad (con operaciones algebraicas xD), k hacian el objeto muy creible, mas de lo k he visto jamas. Me dejo:
Fue impresionante...yo antes de ponerlo pense k seria mortal por los trompics, i al verlo me kede sin palabras...blanco...como todos los asistentes...sin palabras. como ellos bautizaron, la tecnologia nos conducira a una calidad de cine proximamente. i tienen toda la razon!
Tambien keria decir, mas con el tema del topic, k las empresas k estaban alli no nombraron Ati para nada. Siempre decian k nVidia era kien tenia la mejor plataforma para diseñar... asi k no se. Por algo sera, i no fue por compromiso, pq en muchas otras conferencias lo unico k se hacia era picarse con las empresas de la competencia, era muy bueno, (asi en plan buen rollito). Muy divertido.
Bueno, pos eso.
Salu2!
-
Marcalj entonces nos estas diciendo que tenemos que tragarnos una "mierda" de grafica en el tema de hardware comparardo con ATI, porque ahora se han dado cuenta que estan desaprovechando el potencial de este al no optimizarlo???.
Y no se le cae la cara de vergüenza al tio ese de Nvidia cuando os muestra esas cosas… vamos a mi se me caeria. Van a tu universidad y te muestran que te estan timando con las graficas, ya que si se optimizaran los graficos con una gForce 2 iriamos sobraos para alcanzar la misma calidad.
Dia a dia alucino mas con el tema de las gpu
-
A eso iba yo, a mi no me impresiona en absoluto.
Todo el que entiende un poco de como se hacen los videojuegos sabe de sobra que el para tener un juego impactante graficamente es mas importante tener unas buenas texturas que unos buenos modelos ya que la baja poligonalidad del modelo se puede sompensar con unas texturas detalladas.
Pero aun asi es lo que comenta el compañero, si un programador utiliza una grafica tipo GF3 y la programa en ensamblador accediendo directamente al hardware sin utilizar OGL ni mucho menos DirectX obtendria un rendimiento que seria imrpesionante.
De todas formas hay que ver como se hacen estas demos tecnologicas porque no es lo mismo mostrar un bosque en el que cada arbol sea un modelo plano con textura que uno en el que cada hoja del arbol este formada por un objeto poligonal y sin embargo el resultado aparente puede ser el mismo.
Tambien hay que tener en cuenta que la compañia desarrolladora dice que la empresa de hardware es mejor en funcion del dinero que le paguen, eso esta claro, hay pocos desarrolladores hoy en dia que no se vendan a una compañia determinada.
Cuando aparecio la 8500 Ati implemento la tecnologia truform que permitia crear superficies curvas con el mismo numero de poligonos que una recta y nadie la implemento y hubiese sido un avance realmente importante porque se necesitarian 1/3 de los poligonos actuales para representar superficies curvas.
-
Marcalj
creo que la técnica que tu dices está basada en gráficos fractales, ya llevan varios años estudinado la creación fractal de gráficos pra que la resolución de un gráfico pueda ser variable y se vea perfectamente tanto de cerca como de lejos.
Una vez vi una demo, donde se veía un paisaje con un castillo a lo lejos, y se podía hacer zoom en cualquier lugar de la imagen y al ampliar esa zona seleccionada se veía perfectamente nítido y se podía hacer un zoom de hasta 1000%. Lo que hacía era volver a reconstruir el area seleccionada mediante gráficos fractales en vez de simplemente interpolar pixels u otra técnica similar que estropea y pixela la imagen al hacer un zoom.
Y como dice JohnyQ
Pero aun asi es lo que comenta el compañero, si un programador utiliza una grafica tipo GF3 y la programa en ensamblador accediendo directamente al hardware sin utilizar OGL ni mucho menos DirectX obtendria un rendimiento que seria imrpesionante.
Yo creo que lo mejor sería que aprovecharan al máximo las tarjetas gráficas utilizando el acceso directo a hardware sin ningún intermediario y usar las funciones específicas de cada chip. Pero claro esto no es rentable ni practico para las empresas de videojuegos porque hay muchos tipos de chip distintos dentro de la misma empresa, o sea hay una geforce FX con determinados efectos nuevos y revolucionarios pero si se usan estos, tendrían que programar tambíen para los que tengan una Geforce 4 que no tienen esos nuevos efectos y también para Geforce 3, y luego tendrían que hacerlo para ATI 9800 y para ATI 9700 y para ATI 9100 y 8500 …. Con lo cual tendrían que hacer muchas versiones distintas y no les convendría.
Una cosa muy distinta es cuando hacen juegos para videoconsola, ya que pueden aprovechar al 100% el hardware disponible y pueden programar en ensamblador directo ya que el hardware de TODOS los usuarios que tienen esa consola es SIEMPRE EL MISMO y todos tienen la misma memoria, la misma tarjeta gráfica, mismo procesador,etc. Esta es la explicación según creo de porqué los gráficos de una XBOX son mejores en muchos casos que los de PC.
¿ Y SI OCURRE COMO CON LOS GLIDE de 3DFX ?
Me refiero a que si ahora Nvidia empieza a darle dinero a varias empresas para que desarrollen software exclusivo solo para NVIDIA y cada vez hay más ¿ que va a pasar? que si tienes otra tarjeta que no sea Nvidia no podrás jugar a ese juego o utilizar un determinado software por tener una ATI o una S3 u otra.
En la época de los Glide había varios juegos, demos e incluso salvapantallas (voodoolights) que necesitaban una gráfica de 3DFX para funcionar y que a pesar de que luego se inventaron los emuladores de 3DFX, no era lo mismo. Era como un hechizo voodoo hacia las demás empresas de gráficos.
¿ y si vuelve esa época de software exclusivo ?
-
Creo que te equivocas, has confundido los graficos fractales con los graficos vectoriales.
Todo grafico tridimensinal, en principio, es vectorial y por lo tanto puede reescalarse sin pedida alguna. Un ejemplo lo tenemos cuando trabajamos con el 3D studio, si tu aumentas un cubo este no pierde calidad. Esta es la ventaja de los graficos tridimensionales y por eso te puedes mover dentro de un espacio 3D.
Los graficos fractales se realizan a partir de formulas matematicas pero no necesariamente geometria euclidea, no hay rotaciones, intersecciones ni nada de eso, son mas formas planas que intentan imitar las formas de la naturaleza que segun parece sigue una estructura fractal. Esi si, puede requerir una gran potencia de calculo en funcion de la figura, pero estas no tienen una forma prediseñada, no sirve para representar la realidad tal y como la vemos nosotros.
Y en lo segundo tienes razon.
-
En lo tercero te has vuelto a equivocar, lo del glide no tiene nada que ver con lo que ocurre ahora.
3DFX invento la aceleradora 3D domestica y por lo tanto no habia librerias graficas para este entorno por lo que si querias programar un juego para una de estas tarjetas tenias que hacerlo en su propio codigo. Los de 3Dfx, como desarrolladores de sus chips, sacaron unas librerias que permitian prograamrlas mas facilmente. Si recuerdas esos primeros años cuando instalabas un juego tenias que seleccionar si era PowerVR, Virge, Permedia o Glide y en funcion de estos aceleraba el juego de una forma u otra.
Cuando aparecieron los controladores controladores reducidos OGL las graficas Vodoo fueron de las primeras en implementarlos y con las DirectX igual.
Pero lo que pretende nVidia es separarse del estandar utilizado cuando hay uno (dos en este caso) no es lo mismo ni se le parece siquiera y no tiene justificacion alguna. Podria incentivar a los desarrolladores para que implementaran "parches" que optimicen sus funciones, pero lo que pretende es que solo se puedan usar chips nVidia independientemente de su tecnologia y no pueden usar la escusa de que sus chips son mas avanzados porque lo que pretenden no es optimizar para GFFX si no para toda su gama y no creo que una MX400 sea tecnologicamente mas avanzada que una 9000.
-
Jhonny Q
No me refería a cambiar los gráficos vectoriales por fractales, sino a las texturas aplicadas con bitmap que estan basadas en técnicas fractales, ya que las texturas de bitmap no se pueden ampliar.
Yo no soy un experto en 3D , y se poco de este tema, pero según creo las texturas que se aplican están basadas en bitmap. Yo lo que recuerdo es esa demo que explicaban que las texturas que habían usado eran bitmap fractales que se podían ampliar sin perdida de calidad. Tal vez esté equivocado y esto no sea aplicable a un juego o entorno 3D móvil.
Respecto a lo de la Glide, ya sé que no se puede comparar la época actual con aquella época, pero es que yo tenía una 3D Virge y algunas cosas no funcionaban y me pedían las librerias glide. Y luego decidí comprarme la Voodoo 2 y ya funcionaba todo perfectamente y no volví a tener problemas. Luego me compré la Voodoo Banshee que era la mejor de todas. Y que yo recuerde el salvapantallas voodoolights no funcionaba sino tenías las 3DFX.
También es que 3DFX en esa época era lider indiscutible y no había nadie que le hiciera sombra. Ahora está ATI que le esta haciendo sombra a Nvidia.
-
Tambien keria añadir un comentario muy muy impactante.
El señor de Digital Legends, dijo textualmente.
"Es mas, creo que aun no hay ningun juego que use al 100% las caracteristicas de DirectX 8…i estamos en el 9..."
No se si dijo "al 100%" o "algo"...pero la conclusion que sacamos es que en las empresas no tienen la gente como para desarrollar esos calculos tan complicados, si no que van a lo practico.
Eso lo dijo un director de una compañia española, que col·laboro con el juego Commandos.
Bueno, pues vaya, k tamos apañaos....a ver lo que nos espera...
Mas info: http://web.salleurl.edu/aprop/
LA conferencia esta fue el dia 10, a las 19:00.
Salu2!
PD: pedire a ver si tienen los videos de las conferencias…a ver si los cuelgan. La mayoria con en castellano, pq si no los de la mesa no se enterarian...:p
Taluego!
-
No se si cabrearme o que… pero lo que tengo muy claro, NO VUELVO A COMPRAR UNA TARJETA NVIDIA... y despues de comprar hoy la ASUS A7N8X me pensare la proxima vez la compra de una placa nforce2...
A ver.. nvidia entro a mediados de los 90 en este mundillo.. y ahora quiere hacer lo mismo que ocurre en las consolas.. y ya lo ha logrado...
Los juegos de Electronica ARTS estaran aprovechando al maximo los chips GeForce, y mi temos.. acaso funcionaran bien con las ATI, SIS o con las TRIDENT???
Saludos
-
entonces cabreate tambien con intel, que lo lleva haciendo muchos más años antes que nVidia …
Era cuestion de tiempo ... pero tranquilo. Ya contraatacara ATI ... -
Bahh, al final va a ser más compatible un Mac que un PC
-
una verguenza, si ATI le esta revolcando … QUE SAKE TARJETAS MEJORES O QUE BAJE EL PRECIO.
Pues si que la hemos cagado, curiosamente 4 de los 7 u 8 juegos q tengo son de EA, es una verdadera putada que la grande de los juegos joda de esa forma a los que no pasan x el aro de nvidia.
AHora que? pa jugar a uno de esos nuevos juegos, y que vayan bien, tengo q tener una GF.Hay q ve, a ver como termina todo esto
-
Spaceray no se mucho del tema de fractales y como estaran ahora pero hasta el momento la realidad solo se puede represntar mediante tecnicas de mapa de bits y no mediante graficos vectoriales (fractales) y creo que eso seguira siendo asi por mucho, mucho tiempo.
Por otro lado, si pudiera hacerse, no habria potencia de calculo suficiente en ninguna maquina para mover un juego con 100.000 poligonos por segundo y sus texturas vectoriales calculadas en el mismo tiempo como para que dieran un movimiento de al menos 25fps.
Ademas creo que os estais confundiendo en una parte fundamental, los juegos actuales no son mejores por problemas de programacion, no de tecnica. Con un bus AGP 8X y una memoria de 128Mb no habria problema alguno para tener unas texturas "fotorealistas". Hay que tener en cuenta que en juegos con escenarios cerrados las texturas son pequeñas pero muchas y en terrenos abiertos pocas pero grandes con lo que en los dos casos un uso apropiado de texturas y buses permitiria una buena calidad de imagen.
-
Me parece que le estais dando mucha mas importancia de la que tiene, esto ya lo llevan haciendo muchos años.
Ademas nVidia se hunde, este movimiento lejos de aumentar sus ventas las va a reducir drasticamente porque no tiene el hardware mas avanzado como para permitirse el lujo de hacer esto, esto lo podria hacer la compañia con el producto mas potente ya que estaria justificado pero en este caso lo ha hecho la que tiene mas dinero.
Y no tiene demasiada importancia porque va a ser un fracaso, no va a desarrollar los juegos para las FX sino para todas las nVidia eso significa que o desarrollan un parcha para cada familia de chips graficos o algunos se quedan fuera, si lo optimizan para FX los demas no rinden y si los optimizan para GF2 los demas los desaprovechan. Como veis si hacen lo segundo las 9700 saxcaran ventaja por fuerza bruta y si hacen lo primero los desarrolladores pierden el 80% del mercado.
Y, claro esta, todavia microsoft no ha dicho nada y despues del 20 años con el microsoft compatible no va a dejar que pase esto porque se empieza con los juegos y se termina con el SO, sin cortar que no se lleva nada bien con nVidia.
-
No son solo texturas fractales, el algoritmo de calculo de fractales es demasiado complejo para calcularlo en tiempo real, lo que si hacen es calcular texturas procedurales en tiempo real, como las que se pueden encontrar programas 3D como 3dstudio o lightwave etc… son texturas que imitan madera, agua, ladrillos... y se dibujan mediante formulas matematicas.
La PS2 lo tiene implementado creo y he visto capturas de demos de la GF FX con DX9 donde se ven ese tipo de texturas. Las ventajas, pues que no consumen memoria de la grafica y que no pierden nunca nitidez.
Los 'shaders' que incorporan las gpus de ultima generacion es precisamente eso, un shader es una pequeña formula que define la textura del objeto al que se aplica.
-
Pues si se da esto de la exclusividad, que va a pasar al final? Pues que por 200 € me compro antes una XBOX (o una ps2) que una gráfica, así de claro. No puede ser que cuesten lo mismo o MÁS!! un componente para el PC que un PC entero (=Xbox)…
-
Pego lo que puse en otro foro:
EA utilizan la api D3D con lo que ellos no controlan la tarjeta sobre la que corre el juego, que lo programen de manera que rinda un poco mejor con las nVidia puede ser, pero no dejara de funcionar con otras tarjetas que soporten D3D ni funcionara mal.
Otra cosa seria si programasen con ensamblador el acceso a la grafica (trabajo de chinos) o utilizando OpenGL con solo las extensiones de nVidia, lo que lleva a una perdida de dinero ya que añadir las demas no cuesta nada y EA no va a perder un buen trozo del mercado por mucho acuerdo que tenga, por lo que descarto estas dos opciones.
Lo unico que veo posible en ese acuerdo es que EA utilize vga de nVidia en sus PC a cambio de que nVidia tenga juegos de EA a un menor precio para "regalarlos" con sus graficas.Saludos
-
Yo pienso lo mismo que KDT.
No creo que haya que preocuparse demasiado.Salu2.
-
Bueno, yo en este caso salgo beneficiado, pero si realmente se empieza a trabajar así, tarde o temprano Ati hará lo mismo, así que lo de coger manía a Nvidia me hace como un poco de gracia.
Si Ati hace lo mismo, y no puedo jugar a ese juego en particular, ¿cuántos juegos me quedarán en este mundo para jugarlos…?. Me parece que aún así me faltará tiempo, pero bueno, siempre es bueno encontrar una razón para mosquearse, es la salsa de la vida...
Salu2.