NV30 ya esta en www.nvidia.com ¿Estas Listo ?
-
Lo de la Geforce FX de Holanda del Club 3D es solo para los que no pueden esperar a que las demas empresas fabricantes saquen sus tarjetas graficas, y ponen el precio por las nubes para aprovecharse de la situación.
Además ese es el modelo Ultra, y según parece va a salir un modelo normal por unos 399 € y el Ultra de otras empresas costará 599€
Pero si lo quieres antes que nadie tienes que pagar por la exclusividad y son esos 705€ y además no te la envian inmediatamente, ya que al parecer tardan unos 10 días.
Y lo de que Creative tuviera la distribución exclusiva de Europa no es cierto. En esta noticia se aclara que Creative no ha firmado ningún acuerdo en exclusiva con Nvidia y que lo que habían dicho es que iban a sacar las tarjetas al mismo tiempo que tras empresas a final de Enero.
Ver –-> http://www.theinquirer.net/?article=7066
Habrá que ver que empresas sacan a la venta primero sus tarjetas, y lo mas importante para nosotros, ¿ cuando podremos comprarlas aqui en España ?
Lo que si es que probablemente que al principio haya una cantidad limitada de tarjetas y ya cuando haya más producción, se verán más.
Según una web que ahora no recuerdo, tendre que buscarla, a partir del día 21 de Enero tenian concertada un cita con un fabricante que les entregaría en exclusiva una tarjeta definitiva y no un prototipo y entonces ya podrían probarla realmente y hacer unos benchmarks reales. Y si no lo pueden hacer antes es porque esta 3º semana de enero es cuando Nvidia lo va a presentar oficialmente y fisicamente en el COMDEX SCANDINAVIA
Ver http://www.hardlimit.com/forum/showthread.php?s=&threadid=12043
-
Publicado Originalmente por SpaceRay
**Lo de la Geforce FX de Holanda del Club 3D es solo para los que no pueden esperar a que las demas empresas fabricantes saquen sus tarjetas graficas, y ponen el precio por las nubes para aprovecharse de la situación.
**Exacto…además, hay que considerar que el precio en esa web holandesa es de pre-orden de la tarjeta, y esos siempre suelen ser mayores que los precios normales una vez varios fabricantes tienen tarjetas en el mercado.
Todo apunta a que la FX va a costar, en EE.UU claro, como poco lo que valía la 9700Pro nada más salir, eso siempre pasa, y serán entre 400 y 500$ posiblemente. Allí, al poco tiempo imagino, bajarán los precios hasta situarse en algo menos de 400$ o casi 300$ que es lo que va costando la 9700Pro por allá actualmente. Además para entonces, el NV 31 y el 34 habrán aparecido también..., a precios más asequibles con lo cual la FX Ultra y la "normal" no pueden bajar demasiado el precio tampoco(no creo que nunca lleguen a estar por debajo de 300$), ya que para eso ya estarán los chips de gama media como siempre ha sucedido.
Luego está el tema de cuánto más que en norteamérica va a costar la tarjeta en el resto del mundo :rolleyes: , lógicamente si allí será cara al principio, aquí por ejemplo en Europa lo será más. -
Yo creo que con la enorme potencia que se supone que tendrá la Geforce FX normal, es una tontería gastarse un dinero extra en comprarse la version Ultra. Es solo marketing, y seguramente la diferencia en velocidad no justificara la diferencia de precio.
Ya se verá cuando se hagan benchmarks definitivos con tarjetas reales
-
Yo estoy de acuerdo con vosotros, pero no creo que la potencia bruta de esta grafica sea tan elevada. Por los comentarios y documentos de nVidia creoq ue se va a centrar mucho mas en la calidad que en la potencia. Creo que en el 3Dmark no pasara de los 20000 puntos, auqneu tambien dependera del equipo, supongo que no estara a mas de 3000 puntos de la 9700.
-
Es verdad que en la Geforce Fx se le ha dado mucha importancia a la calidad de imagen, y esto es importante ya que cuanto mas calidad tengan mejor, y en los juegos y graficos en general se pueden hacer mas efectos visuales mejorados.
Ahora yo creo que se deberia hacer un benchmark que mida la calidad y no tanto la velocidad, antes recuerdo que los de Mad Onion (Futuremark) tenian uno , pero que no mostraba comprativas de graficos , o sea lo que yo digo es que se haga un benchmark que aproveche todas las caracteristicas del Direct X o Open GL, y que sepamos como se vería en la configuración ideal, y compararlo con la tarjeta gráfica que tengamos.
Esto lo digo, porque hace poco he visto en una revista, que hacian una comparativa fotografica, con fotos de un mismo juego en la misma escena, pero puesto con diferentes tarjetas graficas, y las diferencias entre una tarjeta y otra eran enormes, la que mejor se veia eran las Ati Radeon 9700 y luego las G4 4600 y 4200, pero si la ponias con una Geforce 2 se veia mucho peor, en lo que respecta a cantidad de efectos, numero de detalles y calidad de la iluminación y luces.
-
El problema esta en que un test que mida la velocidad es objetivo pero uno que mida la calidad es subjetivo, pasa algo parecido a lo del sonido, los datos pueden decir muchas cosas pero si mi oido no distingue entre dos frecuencias me da lo mismo lo que digan las pruebas.
Esto es lo mismo. Me he fijado en que la mayoria de las pruebas de calidad consisten en capturar paredes o escalones en el Quake o derivados para ver si hay efecto sierra o no, pero eso en realidad no sirve de nada porque a la velocidad que va uno en un Arena no se para a ver los cuadros, podrian hacerlo con juegos mas estaticos como son los de estrategia o aventuras graficas.
Lo que mas me fastidia es que todos los analisis hacen las mismas pruebas, como por ejemplo la del Quake, que a estas alturas sirve de poco porque cualquier tarjeta de da mas de 150 fps.
-
Estoy de acuerdo en que es algo subjetivo, ya que cada uno lo puede ver de una forma distinta y tener mayor agudeza visual, pero a lo que yo me refiero no es un benchmark para que te de un numero como el 3Dmark, sino un benchmark que compare las características técnicas de una tarjeta, el número de efectos posibles del Direct X o del OpenGL, la calidad del antialising, la nitidez, la calidad de la iluminación, luces, sombras, nieblas, fuego, humo, etc.
Y que se pudiera ver una foto de como se ve en una gráfica de alta categoría y como se ve en nuestra tarjeta gráfica.
También se debería de poner en los juegos, todas las características y efectos que posee y utiliza ese juego de las tarjetas gráficas, y ver si utiliza todos los efectos disponibles en las tarjetas de alta gama o solo algunos, y por lo tanto se vería igual en una tarjeta de gama media.
Por ejemplo los Pixel shader sólo estan disponibles en las Geforce 3 y segun creo que en todas las Geforce 4, y en la Radeon 9700 y algunas otras ATi. Pero si tenemos una Geforce 2 u otra que no los lleve, y un juego o demo utiliza esos pixel shader, no sabemos como se ve con pixel shader y sin pixel shader, ya que el juego va a funcionar igual pero se va a ver peor.
Y yo lo se porque he visto la demo de www.glexcess.com en una Geforce 2 y en una Geforce 3 y hay una gran diferencia, en las fotos que se acompañan a las demos, hay unas partes que en la foto se ven muy bien, pero luego al ver la demo, no se parece ni de lejos a las fotos, porque las fotos fueron hechas con una tarjeta de alta gama, y si le pones una Geforce 2, esta tarjeta no es capaz de hacer esos efectos, por lo que no se ve igual.
Pero si yo no hubiera visto las fotos de como es realmente el efecto conseguido no me hubiera dado tanta cuenta de que faltaban efectos (excepto en uno que solo se ven cubos blancos). -
Pero seguimos teniendo el mismo problema.
Para empezar si una prueba utiliza caracteristicas que no tenga otra no funcionara, es el caso de los pisxel shaders, las atis tienen la version 1.4 creo recordar y las GF la 1.3, si la demo utiliza la 1.4 no funciona en la GF. Y si se usan las extensiones + de la FX no funcionara en las Radeon.
Todo eso hablando extrictamente desde el hardware, de otro modo puedes hacer como hace el 3DMark, usas las Dx y ellas son las que se encargan de activar una funcion o no por hardware, pero esto ya lo tenemos. Lo dicho, todo lo que comentas de efectos y demas es lo que hace el 3DMark.
En cuanto a lo de la calidad tal y como tu lo comentas es imposible. Si quieres comparar la imagen generada por una grafica con la original no puedes hacerlo porque esa original habra tenido que ser creada con alguna otra grafica, o retocada o la estas visualizando de otro modo. Es como el caso de las fotos que ponen en los analisis, puede ser que no apreciemos la calidad o no se diferencien porque las imagenes estan comprimidas o porque sea nuestra grafica la que tenga una calidad deficiente.
En resumen, la calidad de imagen es y sera algo subjetivo y la unica manera de saber cual es la mejor es cada uno compare. Otra cosa es la cantidad de efectos que una grafica pueda aplicar a una imagen para mejorarla, los veamos o no.
-
Aqui tenemos fotos y analisis. Las fotos estan bastante interesante porque llevan un disipador mas normal.
http://www.darkcrow.co.kr/Home/home.asp?idx=#1745
http://www.darkcrow.co.kr/image/news/0301/Leadtek_FX2000_01.jpg
http://www.darkcrow.co.kr/image/news/0301/Leadtek_FX2000_02.jpgEs la misma tarjeta.
Y esto es un semi analisis con un rendimiento que parece bastante coherente.
http://www.nvnews.net/images/news/220301/images/geforcefx.jpg
-
Los chips derivados del Geforce FX (NV30) no van a tener todas las mismas funciones y no van a soportar todas las especificaciones del Direct X 9 como lo va a hacer la Geforce Fx normal.
Las llamadas NV31 y NV34 que serán más baratas que la NV30, estarán para competir con las Ati Radeon 9500 y serán lo mismo que ahora hay G4 4400 y G4 4200 y G4 4600, o sea las Geforce FX será FX5800, FX5600 y FX5400 (creo que son estos números)
La Geforce 4 4200 según creo tiene todas las mismas funciones que una Geforce 4 4600 solo que es algo mas lenta pero no será igual con las FX.
-
Publicado Originalmente por SpaceRay
**Los chips derivados del Geforce FX (NV30) no van a tener todas las mismas funciones y no van a soportar todas las especificaciones del Direct X 9 como lo va a hacer la Geforce Fx normal.Las llamadas NV31 y NV34 que serán más baratas que la NV30, estarán para competir con las Ati Radeon 9500 y serán lo mismo que ahora hay G4 4400 y G4 4200 y G4 4600, o sea las Geforce FX será FX5800, FX5600 y FX5400 (creo que son estos números)
La Geforce 4 4200 según creo tiene todas las mismas funciones que una Geforce 4 4600 solo que es algo mas lenta pero no será igual con las FX.
El NV 31 y 34 deberían ser, al igual que el NV30, todas DX9, al menos según Leadtek lo serán:
(click para ampliar).
Por supuesto sérán tarjetas con velocidad de reloj más baja y posiblemente sin el disipador especial de la FX 5800 Ultra que ocupa 1 slot PCI(si habéis visto la Quadro FX 1000, que va a menos velocidad que la 2000, sabréis que simplemente lleva un cooler parecido al de una TI 4600…). -
Yo no he dicho que NO sean compatibles DX9, SOLO que esas tarjetas no van a aprovechar TODAS las funciones del DX9, porque NO van a a incluir todas las funciones de hardware del NV30 normal o sea el 5800.
Sin embargo el FX 5800 y el FX 5800 Ultra , SI que va a ser exactamente el mismo chip, sólo que el ULTRA es algo más rápido.
-
Space, si no aprovechan todas las funciones Dx9 es que no es compatible Dx9.
De todas formas no es asi. La FX soporta completamente DX9 (casi, no tiene displacement mapping o como se escriba) pero ademas incorpora una serie de tecnicas que no estan incluidas en Dx9 (el truform de ATI no esta incluido en las DX y es una caracteristica mas de la tarjeta). Pues segun parece las NV31 y 34 no soportaran todas estas caracteristicas pero seguiran siendo DX9 salvo por el detalle mencionado.
Parece mentira lo que se esta hablando de este chip que ni siquiera existe, si hubieramos hablado tanto de los x86-64 los anti-AMD se nos hubieran tirado al cuello:p
-
Publicado Originalmente por SpaceRay
**Yo no he dicho que NO sean compatibles DX9, SOLO que esas tarjetas no van a aprovechar TODAS las funciones del DX9, porque NO van a a incluir todas las funciones de hardware del NV30 normal o sea el 5800.Sin embargo el FX 5800 y el FX 5800 Ultra , SI que va a ser exactamente el mismo chip, sólo que el ULTRA es algo más rápido.**
Y creo que yo no he dicho que tu hayas dicho que no serán DX9 :rolleyes: , simplemente si en ese gráfico se muestran como DX9 será por algo, luego a lo mejor si no soportan "todas" las características nuevas de DX9 puede ser otra cuestión, pero desde luego es de suponer que soporten al menos las más importantes que serán las que se necesiten en los juegos DX9 esos que saldrán algún día
Lo que está realmente claro es lo de que el 5800 y el 5800Ultra son lo mismo salvo por la diferencia de MHz, y tal vez como en el caso de las 9500/Pro, los chips NV31 y 34 tengan alguna pipeline desactivada o algo así, menos MHzs y poco más, porque si le quitan lo necesario para ser DX9 compatible por hardware(o casi compatible ), pasará lo mismo que con las GF4 MX, mucha velocidad pero poca sustancia. -
No se si ya se han puesto en esta rama o en otras, yo no lo he visto, (pakohuelva tu que lo ves todo dimelo) pero bueno aqui hay varios enlaces
Un reportaje de 6 páginas comentando varias cosas sobre este chip que se realiza desde la feria del COMDEX
http://firingsquad.gamers.com/hardware/gffx/
También hay uno de 2 paginas aqui
http://www.a1-electronics.co.uk/Graphics_Cards/GeForceFX/GeForceFX_review.shtml
Y esta otra interesante de 8 paginas
http://www.anandtech.com/video/showdoc.html?i=1749
Aqui uno de 9 páginas
http://www.zephirtech.com/article.html?i=89
Aqui hay otra
http://www.hexus.net/review.php?review=45
Y aqui otra
http://www.hardocp.com/article.html?art=Mzkw
Y otros miles mas pero no es necesario.
Pakohuelva, si tu crees que se ha hablado mucho de este chip, esperate a que salga oficialmente al mercado y se venda y ya verás la inundación absoluta de noticias y reportajes que va ha ahber, cada web de las miles que hay querrá hacer uno. Y por cierto existir , si que existe, lo que pasa es que no esta disponible, pero ya se han visto fotos y por lo tanto existe.
-
Según "The Inquirer" se confirman los precios de NVidia Geforce FX y de que hay pocas posibilidades de que se pueda hacer un reportaje de una tarjeta finalizada totalmente durante enero, y que lo más probable es que no haya tarjetas a la venta de forma generalizada hasta marzo.
Mas ventaja para ATI
-
Yo creo que de este bicho lo hemos dicho ya todo y yo hasta que no aparezca en algun sitio no existe, como pasa con los Hammer que se han visto en ferias y demas desde hace mas de un año, pero despues nada.
A mi lo que mas me impresiona de esto no es el chip, si no el PCB que sera de 10 ó 12 CAPAS, casi nada, para mi que cuesta mas el PCB que el chip, por esta razon sera la propia nVidia la que distribuya chip y PCB, al menos al principio.
Para que os hagais una idea, los PCB de placas bases suelen ser de 6 capas, los que llevaban el AMD 761 eran de 8 y los de los Hammer seran de 4.
Y para el que no sepa que es eso de las capas, una capa es una lamina de resina o plastico en la que hay un circuito electrico, si tenemos es cuenta que por cada capa podrian ponerse dos serigrafiados de este tipo pues calcular para 12, ademas pensad en que si el circuito de la capa uno se tiene que comunicar con el de la 12 hay que atravesar el resto de capas pero sin tocar ninguna linea de conexion, mas dificil todavia.
-
Este parece que sera el diseño definitivo de la FX segun nVidia (y todos, claro)
http://www.3dgpu.com/misc_images/gffx1.jpg?PHPSESSID=b92aebcd57858b2e3e8bb27dd3c7d7d7
-
Pues eso igualadisimas en directx8 (3dmark2001 y ut2003)
http://www.beyond3d.com/forum/viewtopic.php?t=4008
Saludos
-
Como podemos leer en hardlimit.com, ya hay cuatro reviews reales de la nueva maravilla de Nvidia.
http://www.hardocp.com/article.html?art=NDIx
http://www.anandtech.com/video/showdoc.html?i=1779
http://www.tomshardware.com/graphic/20030127/index.html
http://www.extremetech.com/article2/0,3973,846379,00.aspUn pena de tarjeta. (tarde y mal)
Que lastima, asi ATI dificilmente bajará sus precios hasta que no saque el R350 (un par de meses)
Como me encanta la polemica, abro esta rama con la intencion de que nos pegemos aquí
Nota: Moderadores, no os preocupeis, cambiare el titulo en breve,
Mi punto de vista es el siguiente:
10% mas en algunas aplicaciones (PEOR en otras) a cambio de mas precio, perder un slot PCI y tener un $%&$ avion metido en el ordenador? NI HABLAR.
A por la ATI voy (sin dudarlo). Ojala ojala para darles la puntilla bajen precios, pero me da que no..