NV30 ya esta en www.nvidia.com ¿Estas Listo ?
-
El problema esta en que un test que mida la velocidad es objetivo pero uno que mida la calidad es subjetivo, pasa algo parecido a lo del sonido, los datos pueden decir muchas cosas pero si mi oido no distingue entre dos frecuencias me da lo mismo lo que digan las pruebas.
Esto es lo mismo. Me he fijado en que la mayoria de las pruebas de calidad consisten en capturar paredes o escalones en el Quake o derivados para ver si hay efecto sierra o no, pero eso en realidad no sirve de nada porque a la velocidad que va uno en un Arena no se para a ver los cuadros, podrian hacerlo con juegos mas estaticos como son los de estrategia o aventuras graficas.
Lo que mas me fastidia es que todos los analisis hacen las mismas pruebas, como por ejemplo la del Quake, que a estas alturas sirve de poco porque cualquier tarjeta de da mas de 150 fps.
-
Estoy de acuerdo en que es algo subjetivo, ya que cada uno lo puede ver de una forma distinta y tener mayor agudeza visual, pero a lo que yo me refiero no es un benchmark para que te de un numero como el 3Dmark, sino un benchmark que compare las características técnicas de una tarjeta, el número de efectos posibles del Direct X o del OpenGL, la calidad del antialising, la nitidez, la calidad de la iluminación, luces, sombras, nieblas, fuego, humo, etc.
Y que se pudiera ver una foto de como se ve en una gráfica de alta categoría y como se ve en nuestra tarjeta gráfica.
También se debería de poner en los juegos, todas las características y efectos que posee y utiliza ese juego de las tarjetas gráficas, y ver si utiliza todos los efectos disponibles en las tarjetas de alta gama o solo algunos, y por lo tanto se vería igual en una tarjeta de gama media.
Por ejemplo los Pixel shader sólo estan disponibles en las Geforce 3 y segun creo que en todas las Geforce 4, y en la Radeon 9700 y algunas otras ATi. Pero si tenemos una Geforce 2 u otra que no los lleve, y un juego o demo utiliza esos pixel shader, no sabemos como se ve con pixel shader y sin pixel shader, ya que el juego va a funcionar igual pero se va a ver peor.
Y yo lo se porque he visto la demo de www.glexcess.com en una Geforce 2 y en una Geforce 3 y hay una gran diferencia, en las fotos que se acompañan a las demos, hay unas partes que en la foto se ven muy bien, pero luego al ver la demo, no se parece ni de lejos a las fotos, porque las fotos fueron hechas con una tarjeta de alta gama, y si le pones una Geforce 2, esta tarjeta no es capaz de hacer esos efectos, por lo que no se ve igual.
Pero si yo no hubiera visto las fotos de como es realmente el efecto conseguido no me hubiera dado tanta cuenta de que faltaban efectos (excepto en uno que solo se ven cubos blancos). -
Pero seguimos teniendo el mismo problema.
Para empezar si una prueba utiliza caracteristicas que no tenga otra no funcionara, es el caso de los pisxel shaders, las atis tienen la version 1.4 creo recordar y las GF la 1.3, si la demo utiliza la 1.4 no funciona en la GF. Y si se usan las extensiones + de la FX no funcionara en las Radeon.
Todo eso hablando extrictamente desde el hardware, de otro modo puedes hacer como hace el 3DMark, usas las Dx y ellas son las que se encargan de activar una funcion o no por hardware, pero esto ya lo tenemos. Lo dicho, todo lo que comentas de efectos y demas es lo que hace el 3DMark.
En cuanto a lo de la calidad tal y como tu lo comentas es imposible. Si quieres comparar la imagen generada por una grafica con la original no puedes hacerlo porque esa original habra tenido que ser creada con alguna otra grafica, o retocada o la estas visualizando de otro modo. Es como el caso de las fotos que ponen en los analisis, puede ser que no apreciemos la calidad o no se diferencien porque las imagenes estan comprimidas o porque sea nuestra grafica la que tenga una calidad deficiente.
En resumen, la calidad de imagen es y sera algo subjetivo y la unica manera de saber cual es la mejor es cada uno compare. Otra cosa es la cantidad de efectos que una grafica pueda aplicar a una imagen para mejorarla, los veamos o no.
-
Aqui tenemos fotos y analisis. Las fotos estan bastante interesante porque llevan un disipador mas normal.
http://www.darkcrow.co.kr/Home/home.asp?idx=#1745
http://www.darkcrow.co.kr/image/news/0301/Leadtek_FX2000_01.jpg
http://www.darkcrow.co.kr/image/news/0301/Leadtek_FX2000_02.jpgEs la misma tarjeta.
Y esto es un semi analisis con un rendimiento que parece bastante coherente.
http://www.nvnews.net/images/news/220301/images/geforcefx.jpg
-
Los chips derivados del Geforce FX (NV30) no van a tener todas las mismas funciones y no van a soportar todas las especificaciones del Direct X 9 como lo va a hacer la Geforce Fx normal.
Las llamadas NV31 y NV34 que serán más baratas que la NV30, estarán para competir con las Ati Radeon 9500 y serán lo mismo que ahora hay G4 4400 y G4 4200 y G4 4600, o sea las Geforce FX será FX5800, FX5600 y FX5400 (creo que son estos números)
La Geforce 4 4200 según creo tiene todas las mismas funciones que una Geforce 4 4600 solo que es algo mas lenta pero no será igual con las FX.
-
Publicado Originalmente por SpaceRay
**Los chips derivados del Geforce FX (NV30) no van a tener todas las mismas funciones y no van a soportar todas las especificaciones del Direct X 9 como lo va a hacer la Geforce Fx normal.Las llamadas NV31 y NV34 que serán más baratas que la NV30, estarán para competir con las Ati Radeon 9500 y serán lo mismo que ahora hay G4 4400 y G4 4200 y G4 4600, o sea las Geforce FX será FX5800, FX5600 y FX5400 (creo que son estos números)
La Geforce 4 4200 según creo tiene todas las mismas funciones que una Geforce 4 4600 solo que es algo mas lenta pero no será igual con las FX.
El NV 31 y 34 deberían ser, al igual que el NV30, todas DX9, al menos según Leadtek lo serán:
(click para ampliar).
Por supuesto sérán tarjetas con velocidad de reloj más baja y posiblemente sin el disipador especial de la FX 5800 Ultra que ocupa 1 slot PCI(si habéis visto la Quadro FX 1000, que va a menos velocidad que la 2000, sabréis que simplemente lleva un cooler parecido al de una TI 4600…). -
Yo no he dicho que NO sean compatibles DX9, SOLO que esas tarjetas no van a aprovechar TODAS las funciones del DX9, porque NO van a a incluir todas las funciones de hardware del NV30 normal o sea el 5800.
Sin embargo el FX 5800 y el FX 5800 Ultra , SI que va a ser exactamente el mismo chip, sólo que el ULTRA es algo más rápido.
-
Space, si no aprovechan todas las funciones Dx9 es que no es compatible Dx9.
De todas formas no es asi. La FX soporta completamente DX9 (casi, no tiene displacement mapping o como se escriba) pero ademas incorpora una serie de tecnicas que no estan incluidas en Dx9 (el truform de ATI no esta incluido en las DX y es una caracteristica mas de la tarjeta). Pues segun parece las NV31 y 34 no soportaran todas estas caracteristicas pero seguiran siendo DX9 salvo por el detalle mencionado.
Parece mentira lo que se esta hablando de este chip que ni siquiera existe, si hubieramos hablado tanto de los x86-64 los anti-AMD se nos hubieran tirado al cuello:p
-
Publicado Originalmente por SpaceRay
**Yo no he dicho que NO sean compatibles DX9, SOLO que esas tarjetas no van a aprovechar TODAS las funciones del DX9, porque NO van a a incluir todas las funciones de hardware del NV30 normal o sea el 5800.Sin embargo el FX 5800 y el FX 5800 Ultra , SI que va a ser exactamente el mismo chip, sólo que el ULTRA es algo más rápido.**
Y creo que yo no he dicho que tu hayas dicho que no serán DX9 :rolleyes: , simplemente si en ese gráfico se muestran como DX9 será por algo, luego a lo mejor si no soportan "todas" las características nuevas de DX9 puede ser otra cuestión, pero desde luego es de suponer que soporten al menos las más importantes que serán las que se necesiten en los juegos DX9 esos que saldrán algún día
Lo que está realmente claro es lo de que el 5800 y el 5800Ultra son lo mismo salvo por la diferencia de MHz, y tal vez como en el caso de las 9500/Pro, los chips NV31 y 34 tengan alguna pipeline desactivada o algo así, menos MHzs y poco más, porque si le quitan lo necesario para ser DX9 compatible por hardware(o casi compatible ), pasará lo mismo que con las GF4 MX, mucha velocidad pero poca sustancia. -
No se si ya se han puesto en esta rama o en otras, yo no lo he visto, (pakohuelva tu que lo ves todo dimelo) pero bueno aqui hay varios enlaces
Un reportaje de 6 páginas comentando varias cosas sobre este chip que se realiza desde la feria del COMDEX
http://firingsquad.gamers.com/hardware/gffx/
También hay uno de 2 paginas aqui
http://www.a1-electronics.co.uk/Graphics_Cards/GeForceFX/GeForceFX_review.shtml
Y esta otra interesante de 8 paginas
http://www.anandtech.com/video/showdoc.html?i=1749
Aqui uno de 9 páginas
http://www.zephirtech.com/article.html?i=89
Aqui hay otra
http://www.hexus.net/review.php?review=45
Y aqui otra
http://www.hardocp.com/article.html?art=Mzkw
Y otros miles mas pero no es necesario.
Pakohuelva, si tu crees que se ha hablado mucho de este chip, esperate a que salga oficialmente al mercado y se venda y ya verás la inundación absoluta de noticias y reportajes que va ha ahber, cada web de las miles que hay querrá hacer uno. Y por cierto existir , si que existe, lo que pasa es que no esta disponible, pero ya se han visto fotos y por lo tanto existe.
-
Según "The Inquirer" se confirman los precios de NVidia Geforce FX y de que hay pocas posibilidades de que se pueda hacer un reportaje de una tarjeta finalizada totalmente durante enero, y que lo más probable es que no haya tarjetas a la venta de forma generalizada hasta marzo.
Mas ventaja para ATI
-
Yo creo que de este bicho lo hemos dicho ya todo y yo hasta que no aparezca en algun sitio no existe, como pasa con los Hammer que se han visto en ferias y demas desde hace mas de un año, pero despues nada.
A mi lo que mas me impresiona de esto no es el chip, si no el PCB que sera de 10 ó 12 CAPAS, casi nada, para mi que cuesta mas el PCB que el chip, por esta razon sera la propia nVidia la que distribuya chip y PCB, al menos al principio.
Para que os hagais una idea, los PCB de placas bases suelen ser de 6 capas, los que llevaban el AMD 761 eran de 8 y los de los Hammer seran de 4.
Y para el que no sepa que es eso de las capas, una capa es una lamina de resina o plastico en la que hay un circuito electrico, si tenemos es cuenta que por cada capa podrian ponerse dos serigrafiados de este tipo pues calcular para 12, ademas pensad en que si el circuito de la capa uno se tiene que comunicar con el de la 12 hay que atravesar el resto de capas pero sin tocar ninguna linea de conexion, mas dificil todavia.
-
Este parece que sera el diseño definitivo de la FX segun nVidia (y todos, claro)
http://www.3dgpu.com/misc_images/gffx1.jpg?PHPSESSID=b92aebcd57858b2e3e8bb27dd3c7d7d7
-
Pues eso igualadisimas en directx8 (3dmark2001 y ut2003)
http://www.beyond3d.com/forum/viewtopic.php?t=4008
Saludos
-
Como podemos leer en hardlimit.com, ya hay cuatro reviews reales de la nueva maravilla de Nvidia.
http://www.hardocp.com/article.html?art=NDIx
http://www.anandtech.com/video/showdoc.html?i=1779
http://www.tomshardware.com/graphic/20030127/index.html
http://www.extremetech.com/article2/0,3973,846379,00.aspUn pena de tarjeta. (tarde y mal)
Que lastima, asi ATI dificilmente bajará sus precios hasta que no saque el R350 (un par de meses)
Como me encanta la polemica, abro esta rama con la intencion de que nos pegemos aquí
Nota: Moderadores, no os preocupeis, cambiare el titulo en breve,
Mi punto de vista es el siguiente:
10% mas en algunas aplicaciones (PEOR en otras) a cambio de mas precio, perder un slot PCI y tener un $%&$ avion metido en el ordenador? NI HABLAR.
A por la ATI voy (sin dudarlo). Ojala ojala para darles la puntilla bajen precios, pero me da que no..
-
Vamos que al poseedor de una 9700 no le van a entrar remordimientos por el gasto de su tarjeta.
Estos datos son significativos, y a la espera de confirmar si el trucaje de las 9500 sera algo definitivo o como se dice por ahi, R300 defectuosos.
Salu2
-
tambien tendran ke octimizar los drivers para la FX…
-
Vamos a ver cuanto tarda ATI en sacar nuevos drivers y lo que tarda nVidia en acar unos en condiciones.
La calidad visula sigue siendo mejor en la ATI aunque, la verdad es que no se nota mucho. El rendimiento en AA y AF disminuye menos en la ATI que en la nVidia.
En potencia bruta son similares, depende de la aplicacion. Curiosamente deja notar la diferencia en el 3DMark, algo muy sospechoso, parece ser que se esta poniendo de moda optimizar drivers para este programa.
Conclusion: A la hora de comprar: a falta de que maduren los drivers de nvidia y de que este a la venta, tenemos dos tarjetas precticametne iguales.
En tecnologia: Sismpre pendiende de los drivers, nVidia la ha cagado, no tiene mayor calidad visual y no es mas rapida.
P.D.: Creo que con sucesivos drivers aumentara el rendimiento mucho, muchisimo. Si Ati rebaja el precio de las 9700 se caraga a nVidia.
-
Veo ke todo lo ke dice Pakohuelva es correcto, ademas lo comparto con el
Si ATI bajase los precios de los R300 arrasaria completamente con la nueva FX, tb hay ke pensar ke Nvidia y su politica de actualizacion de Driver's servira para aumentar el rendimiento de susodicha tarjeta… Pero realmente... en las paginas ke estamos viendo se muestra el potencial de la mas poderosa de las FX... Sinceramente y para mi gusto algo decepcionante.
Un saludo, GothM0G
PD: Toy malito con gripe
-
ADN Master
Yo he visto otras noticias y reviews de Geforce FX que tu no has puesto
1 –---Geforce FX - ¿ la quieres o no?
ver ---> http://www.onethumb.com/index.mg?EntryID=122 –---Aqui hay una completo y detallado benchmark de una Geforce FX 5800 Ultra incluyendo también una Ati Radeon 9700, esta en Aleman pero yo le dado para traducirlo con el google. Aunque no sepais ingles, es interesante ver las fotos y los graficos de benchmarks. Si pulsais sobre algun link este también será traducido. No es un traductor perfecto pero peor es no entender nada por estar en alemán.
3 –----- Aqui hay un analisis y benchmark de una Geforce FX 5800 hecho hoy mismo (27 Enero)