NV30 ya esta en www.nvidia.com ¿Estas Listo ?
-
Publicado Originalmente por pakohuelva
**http://www.maximumpc.com/features/feature_2003-01-03.htmlEsos pueden ser unos resultados mas o menos paroximados, siempre tirando por lo bajo. Estan basados en el prototipo de Alienware y el que no sepa que es esti que se pasa por Anand y se mire como se fabrica una GPU/CPU.:D**
Lo que importa no es que el equipo sea un "prototipo" :rolleyes: , sino que también lo es la tarjeta probada, según dice ahí. Tampoco sabemos qué drivers han usado, ni cómo va la tarjeta en condiciones de mayor estrés como AA+AF en gran medida, que será donde la FX, si es que resulta ser mejor que la 9700Pro, deberá mostrar si vale o no su precio en rendimiento.
Por eso yo pienso que no debemos dejarnos llevar mucho por estas primeras "pruebas", porque las verdaderas reviews lo muestran todo y no sólo lo que nVidia quiera que se muestre…simplemente con la review esa parece como si nVidia tuviese algo que esconder...si realmente lo hace porque su tarjeta no es lo que todos esperamos, pues peor para ellos claro está, no obstante esperemos que no sea así. -
Pues vaya, ahora , después de 2 días caída, la web con los tests de la Gainward FX sí va(la estoy viendo ahora), pero las fotos no salen…, aunque en otros sitios las hemos podido ver hehe, es decir, que tampoco podemos confirmar que sean falsos los resultados de esta web, en fin, ahora tenemos una web donde la FX saca 25K puntos en el 3DMark, mientras que en otra saca 4 FPS menos que una 9700Pro en el test nature, muy interesante
/me está confuso -
Vale, fallo gordo el mio. Confundi el prototipo de Alienware con los prototipos que desarrolla una compañia especialista en simuladores de procesadores y que son el paso previo antes de que el fabricante produzca ningun integrado. Sorry :rolleyes:
De todas formas no parecen malos numeros, no creo que haya mucha mas diferencia entre las dos tarejetas.
Por cierto que las primeras estan anunciadas para finales de este mes, especialmente las de Club3D.
-
Yo tb he leido que Club 3D sacará las nuevas tarjetas GFFX este mes. Yo dudo que salgan en España, yo no he visto aquí las Club 3D con chip nvidia, aunque no digo que no las haya. Seguramente que no veamos las primeras GFFX de otros fabricantes hasta últimos de febrero.
-
Pero vamos que lo que anuncia esta genete es tonteria. Seguramente casi todas las empresas saquen tarjetas con este chip al mismo tiempo, pero lo haran con cuenta gota y como comentas, hasta un mes despues no se podran ver por USA, aqui uhh mas…
-
Buenas!!
Pues una tienda holandesa la tiene anunciada para el 22 de este mes a 705€ joer casi na
Viendo lo que se puede hacer a las 9500 me parece que se están pasando tres pueblos con ese precio y eso que no es de un ensamblador/marca que suela tener los precios altos, ya veremos los demás…
PD:OK pakohuelva no volverá a pasar… aunque me he vuelto a leer las normas y no veo que esa web suponga competencia directa, (como puse sólo acepta pedidos a Holanda y Bélgica) ni quebrante alguno de los 7 apartados especificados sobre esto
taluego
-
Lo de la Geforce FX de Holanda del Club 3D es solo para los que no pueden esperar a que las demas empresas fabricantes saquen sus tarjetas graficas, y ponen el precio por las nubes para aprovecharse de la situación.
Además ese es el modelo Ultra, y según parece va a salir un modelo normal por unos 399 € y el Ultra de otras empresas costará 599€
Pero si lo quieres antes que nadie tienes que pagar por la exclusividad y son esos 705€ y además no te la envian inmediatamente, ya que al parecer tardan unos 10 días.
Y lo de que Creative tuviera la distribución exclusiva de Europa no es cierto. En esta noticia se aclara que Creative no ha firmado ningún acuerdo en exclusiva con Nvidia y que lo que habían dicho es que iban a sacar las tarjetas al mismo tiempo que tras empresas a final de Enero.
Ver –-> http://www.theinquirer.net/?article=7066
Habrá que ver que empresas sacan a la venta primero sus tarjetas, y lo mas importante para nosotros, ¿ cuando podremos comprarlas aqui en España ?
Lo que si es que probablemente que al principio haya una cantidad limitada de tarjetas y ya cuando haya más producción, se verán más.
Según una web que ahora no recuerdo, tendre que buscarla, a partir del día 21 de Enero tenian concertada un cita con un fabricante que les entregaría en exclusiva una tarjeta definitiva y no un prototipo y entonces ya podrían probarla realmente y hacer unos benchmarks reales. Y si no lo pueden hacer antes es porque esta 3º semana de enero es cuando Nvidia lo va a presentar oficialmente y fisicamente en el COMDEX SCANDINAVIA
Ver http://www.hardlimit.com/forum/showthread.php?s=&threadid=12043
-
Publicado Originalmente por SpaceRay
**Lo de la Geforce FX de Holanda del Club 3D es solo para los que no pueden esperar a que las demas empresas fabricantes saquen sus tarjetas graficas, y ponen el precio por las nubes para aprovecharse de la situación.
**Exacto…además, hay que considerar que el precio en esa web holandesa es de pre-orden de la tarjeta, y esos siempre suelen ser mayores que los precios normales una vez varios fabricantes tienen tarjetas en el mercado.
Todo apunta a que la FX va a costar, en EE.UU claro, como poco lo que valía la 9700Pro nada más salir, eso siempre pasa, y serán entre 400 y 500$ posiblemente. Allí, al poco tiempo imagino, bajarán los precios hasta situarse en algo menos de 400$ o casi 300$ que es lo que va costando la 9700Pro por allá actualmente. Además para entonces, el NV 31 y el 34 habrán aparecido también..., a precios más asequibles con lo cual la FX Ultra y la "normal" no pueden bajar demasiado el precio tampoco(no creo que nunca lleguen a estar por debajo de 300$), ya que para eso ya estarán los chips de gama media como siempre ha sucedido.
Luego está el tema de cuánto más que en norteamérica va a costar la tarjeta en el resto del mundo :rolleyes: , lógicamente si allí será cara al principio, aquí por ejemplo en Europa lo será más. -
Yo creo que con la enorme potencia que se supone que tendrá la Geforce FX normal, es una tontería gastarse un dinero extra en comprarse la version Ultra. Es solo marketing, y seguramente la diferencia en velocidad no justificara la diferencia de precio.
Ya se verá cuando se hagan benchmarks definitivos con tarjetas reales
-
Yo estoy de acuerdo con vosotros, pero no creo que la potencia bruta de esta grafica sea tan elevada. Por los comentarios y documentos de nVidia creoq ue se va a centrar mucho mas en la calidad que en la potencia. Creo que en el 3Dmark no pasara de los 20000 puntos, auqneu tambien dependera del equipo, supongo que no estara a mas de 3000 puntos de la 9700.
-
Es verdad que en la Geforce Fx se le ha dado mucha importancia a la calidad de imagen, y esto es importante ya que cuanto mas calidad tengan mejor, y en los juegos y graficos en general se pueden hacer mas efectos visuales mejorados.
Ahora yo creo que se deberia hacer un benchmark que mida la calidad y no tanto la velocidad, antes recuerdo que los de Mad Onion (Futuremark) tenian uno , pero que no mostraba comprativas de graficos , o sea lo que yo digo es que se haga un benchmark que aproveche todas las caracteristicas del Direct X o Open GL, y que sepamos como se vería en la configuración ideal, y compararlo con la tarjeta gráfica que tengamos.
Esto lo digo, porque hace poco he visto en una revista, que hacian una comparativa fotografica, con fotos de un mismo juego en la misma escena, pero puesto con diferentes tarjetas graficas, y las diferencias entre una tarjeta y otra eran enormes, la que mejor se veia eran las Ati Radeon 9700 y luego las G4 4600 y 4200, pero si la ponias con una Geforce 2 se veia mucho peor, en lo que respecta a cantidad de efectos, numero de detalles y calidad de la iluminación y luces.
-
El problema esta en que un test que mida la velocidad es objetivo pero uno que mida la calidad es subjetivo, pasa algo parecido a lo del sonido, los datos pueden decir muchas cosas pero si mi oido no distingue entre dos frecuencias me da lo mismo lo que digan las pruebas.
Esto es lo mismo. Me he fijado en que la mayoria de las pruebas de calidad consisten en capturar paredes o escalones en el Quake o derivados para ver si hay efecto sierra o no, pero eso en realidad no sirve de nada porque a la velocidad que va uno en un Arena no se para a ver los cuadros, podrian hacerlo con juegos mas estaticos como son los de estrategia o aventuras graficas.
Lo que mas me fastidia es que todos los analisis hacen las mismas pruebas, como por ejemplo la del Quake, que a estas alturas sirve de poco porque cualquier tarjeta de da mas de 150 fps.
-
Estoy de acuerdo en que es algo subjetivo, ya que cada uno lo puede ver de una forma distinta y tener mayor agudeza visual, pero a lo que yo me refiero no es un benchmark para que te de un numero como el 3Dmark, sino un benchmark que compare las características técnicas de una tarjeta, el número de efectos posibles del Direct X o del OpenGL, la calidad del antialising, la nitidez, la calidad de la iluminación, luces, sombras, nieblas, fuego, humo, etc.
Y que se pudiera ver una foto de como se ve en una gráfica de alta categoría y como se ve en nuestra tarjeta gráfica.
También se debería de poner en los juegos, todas las características y efectos que posee y utiliza ese juego de las tarjetas gráficas, y ver si utiliza todos los efectos disponibles en las tarjetas de alta gama o solo algunos, y por lo tanto se vería igual en una tarjeta de gama media.
Por ejemplo los Pixel shader sólo estan disponibles en las Geforce 3 y segun creo que en todas las Geforce 4, y en la Radeon 9700 y algunas otras ATi. Pero si tenemos una Geforce 2 u otra que no los lleve, y un juego o demo utiliza esos pixel shader, no sabemos como se ve con pixel shader y sin pixel shader, ya que el juego va a funcionar igual pero se va a ver peor.
Y yo lo se porque he visto la demo de www.glexcess.com en una Geforce 2 y en una Geforce 3 y hay una gran diferencia, en las fotos que se acompañan a las demos, hay unas partes que en la foto se ven muy bien, pero luego al ver la demo, no se parece ni de lejos a las fotos, porque las fotos fueron hechas con una tarjeta de alta gama, y si le pones una Geforce 2, esta tarjeta no es capaz de hacer esos efectos, por lo que no se ve igual.
Pero si yo no hubiera visto las fotos de como es realmente el efecto conseguido no me hubiera dado tanta cuenta de que faltaban efectos (excepto en uno que solo se ven cubos blancos). -
Pero seguimos teniendo el mismo problema.
Para empezar si una prueba utiliza caracteristicas que no tenga otra no funcionara, es el caso de los pisxel shaders, las atis tienen la version 1.4 creo recordar y las GF la 1.3, si la demo utiliza la 1.4 no funciona en la GF. Y si se usan las extensiones + de la FX no funcionara en las Radeon.
Todo eso hablando extrictamente desde el hardware, de otro modo puedes hacer como hace el 3DMark, usas las Dx y ellas son las que se encargan de activar una funcion o no por hardware, pero esto ya lo tenemos. Lo dicho, todo lo que comentas de efectos y demas es lo que hace el 3DMark.
En cuanto a lo de la calidad tal y como tu lo comentas es imposible. Si quieres comparar la imagen generada por una grafica con la original no puedes hacerlo porque esa original habra tenido que ser creada con alguna otra grafica, o retocada o la estas visualizando de otro modo. Es como el caso de las fotos que ponen en los analisis, puede ser que no apreciemos la calidad o no se diferencien porque las imagenes estan comprimidas o porque sea nuestra grafica la que tenga una calidad deficiente.
En resumen, la calidad de imagen es y sera algo subjetivo y la unica manera de saber cual es la mejor es cada uno compare. Otra cosa es la cantidad de efectos que una grafica pueda aplicar a una imagen para mejorarla, los veamos o no.
-
Aqui tenemos fotos y analisis. Las fotos estan bastante interesante porque llevan un disipador mas normal.
http://www.darkcrow.co.kr/Home/home.asp?idx=#1745
http://www.darkcrow.co.kr/image/news/0301/Leadtek_FX2000_01.jpg
http://www.darkcrow.co.kr/image/news/0301/Leadtek_FX2000_02.jpgEs la misma tarjeta.
Y esto es un semi analisis con un rendimiento que parece bastante coherente.
http://www.nvnews.net/images/news/220301/images/geforcefx.jpg
-
Los chips derivados del Geforce FX (NV30) no van a tener todas las mismas funciones y no van a soportar todas las especificaciones del Direct X 9 como lo va a hacer la Geforce Fx normal.
Las llamadas NV31 y NV34 que serán más baratas que la NV30, estarán para competir con las Ati Radeon 9500 y serán lo mismo que ahora hay G4 4400 y G4 4200 y G4 4600, o sea las Geforce FX será FX5800, FX5600 y FX5400 (creo que son estos números)
La Geforce 4 4200 según creo tiene todas las mismas funciones que una Geforce 4 4600 solo que es algo mas lenta pero no será igual con las FX.
-
Publicado Originalmente por SpaceRay
**Los chips derivados del Geforce FX (NV30) no van a tener todas las mismas funciones y no van a soportar todas las especificaciones del Direct X 9 como lo va a hacer la Geforce Fx normal.Las llamadas NV31 y NV34 que serán más baratas que la NV30, estarán para competir con las Ati Radeon 9500 y serán lo mismo que ahora hay G4 4400 y G4 4200 y G4 4600, o sea las Geforce FX será FX5800, FX5600 y FX5400 (creo que son estos números)
La Geforce 4 4200 según creo tiene todas las mismas funciones que una Geforce 4 4600 solo que es algo mas lenta pero no será igual con las FX.
El NV 31 y 34 deberían ser, al igual que el NV30, todas DX9, al menos según Leadtek lo serán:
(click para ampliar).
Por supuesto sérán tarjetas con velocidad de reloj más baja y posiblemente sin el disipador especial de la FX 5800 Ultra que ocupa 1 slot PCI(si habéis visto la Quadro FX 1000, que va a menos velocidad que la 2000, sabréis que simplemente lleva un cooler parecido al de una TI 4600…). -
Yo no he dicho que NO sean compatibles DX9, SOLO que esas tarjetas no van a aprovechar TODAS las funciones del DX9, porque NO van a a incluir todas las funciones de hardware del NV30 normal o sea el 5800.
Sin embargo el FX 5800 y el FX 5800 Ultra , SI que va a ser exactamente el mismo chip, sólo que el ULTRA es algo más rápido.
-
Space, si no aprovechan todas las funciones Dx9 es que no es compatible Dx9.
De todas formas no es asi. La FX soporta completamente DX9 (casi, no tiene displacement mapping o como se escriba) pero ademas incorpora una serie de tecnicas que no estan incluidas en Dx9 (el truform de ATI no esta incluido en las DX y es una caracteristica mas de la tarjeta). Pues segun parece las NV31 y 34 no soportaran todas estas caracteristicas pero seguiran siendo DX9 salvo por el detalle mencionado.
Parece mentira lo que se esta hablando de este chip que ni siquiera existe, si hubieramos hablado tanto de los x86-64 los anti-AMD se nos hubieran tirado al cuello:p
-
Publicado Originalmente por SpaceRay
**Yo no he dicho que NO sean compatibles DX9, SOLO que esas tarjetas no van a aprovechar TODAS las funciones del DX9, porque NO van a a incluir todas las funciones de hardware del NV30 normal o sea el 5800.Sin embargo el FX 5800 y el FX 5800 Ultra , SI que va a ser exactamente el mismo chip, sólo que el ULTRA es algo más rápido.**
Y creo que yo no he dicho que tu hayas dicho que no serán DX9 :rolleyes: , simplemente si en ese gráfico se muestran como DX9 será por algo, luego a lo mejor si no soportan "todas" las características nuevas de DX9 puede ser otra cuestión, pero desde luego es de suponer que soporten al menos las más importantes que serán las que se necesiten en los juegos DX9 esos que saldrán algún día
Lo que está realmente claro es lo de que el 5800 y el 5800Ultra son lo mismo salvo por la diferencia de MHz, y tal vez como en el caso de las 9500/Pro, los chips NV31 y 34 tengan alguna pipeline desactivada o algo así, menos MHzs y poco más, porque si le quitan lo necesario para ser DX9 compatible por hardware(o casi compatible ), pasará lo mismo que con las GF4 MX, mucha velocidad pero poca sustancia.