NV35 - Nuevo chip superior al 5800 Ultra en MAYO 2003!!!! Increible
-
es una pasada, 120W, lo que mas consume de todo el pc, a este paso seran pcs tipo el Eniac, se enciende uno, y tira abajo las luces de la ciudad XDDDD
-
Pues a mi me parece que se van a dar una buena hostia las dos empresas. Demasiados modelos, demasiados nombrecitos, numeritos y tal y cual, mucho marketing y luego, a la hora de la verdad, y hasta que alguien no demuestre lo contrario (se supone que lo hará Doom3) con una 8500 juegas a todo sin problemas. Es más con mi Kyro2 juego a "casi" todo, aunque es una tarjeta realmente desfasada y olvidada por los desarrolladores (vale vale, lo ultimo que está saliendo ya no va ni a tiros, pero bueno hasta hace nada se lo tragaba todo…).
Y pienso que, pese al vicio que podamos tener y el gusanillo y las ganas de comprarte ese peazo pepino de gráfica, total que solo cuesta 300€ (hostias, 50.000 pelas, muuuucha guita) la gente va a cansarse de gastarse el dinero y aguantará más con su gráfica. Ahora imaginaros que el doom3 corre sobre una 8500. Si corre sobre la 8500 irá sobradisimo por ejemplo en una 9700 o una 9500. Y resulta que esas ya son gráficas "viejas", hay nuevos modelos como 9600 o 9800 (que en realidad es más de lo mismo) o 9900. Y parece ser que doom3 va a ser superrevolucionario y tiene pinta de que ese motor va a dar mucho juego, por esta regla de tres, y suponiendo que el motor de doom3 será el que marque la pauta durante una buena temporada, parece ser que se va a poder aguantar con una gráfica mucho más tiempo del que se podía aguantar ahora. Eso siempre que no te la metan por los ojos y te creen la necesidad de comprarla (=marketing) que es en realidad a lo que se dedican esta buena gente de ATI y nVidia... y lo tienen fácil pq el mundo este del PC desde luego es el que mejor demuestra lo que es el consumismo...
A lo que iba, demasiada saturación de modelos en un mismo segmento de mercado hace que el comprador no sepa claramente la diferencia entre los modelos, se confunda (como el dinio) y al final opte por no comprar nada o comprar la misma que tiene todo el mundo (pasa con los coches, pq sino tiene todo cristo un Seat Ibiza, por imitación: se ve mucho luego debe ser un buen coche...). Las tiendas no pueden tener todos los modelos y tenderán a vender lo que tienen y solo comprar lo que más se venda, sin experimentos, lo que puede hacer que determinados modelos se vayan al garete (con las perdidas que puede suponer eso para la empresa). Además cada gráfica, como habéis dicho, tiene su costoso desarrollo y sus planes de amortización, seguro que ATI y nVidia, pese a ser muy grandes, tienen demasiados costos de desarrollo como para aguantar un fracaso....
De todas formas, conociendonos (y me refiero a todos nosotros usuarios del ordenador) con pasta seríamos capaces de cambiar de gráfica cada mes con tal de probar esos mega hipersuperchachishadders que por lo visto son cojonudisimos para representar los poros de la nariz...
Jour.
-
hombre, si yo todavia tengo la radeon 64ddr vivo (k pasa a la kyro) y un athlon 1600+, y en los juegos se me queda muy corto, ojo puedo jugar pero sin FSAA, eso no es plan, no se ve tan bien
Tengo un amigo que juega a todo con una TNT2, si, actualmente,, sin FSAA y a 640*480, claro si poder jugar se puede, pero valoro poder verlo bien, como min 1024 y FSAA a X4 y el anisotropico a x6
(No he actualizado xq no hay pelas, no por falta de ganas) -
pues yo creo q tanto los ensambladores de PC (IBM, HP, Compaq..) como la tienda de la esquina no se arriesgarán a montar una Geforce FX, por las siguientes razones:
-si el chip pilla los 80-100 grados, calentará todo el conjunto (pese al blower, el chip tb calienta x detrás d la tarjeta)
-hay q poner fuentes buenas de verdad para soportar esos más de 100 wattios, aparte del micro, HDs…
-MUCHO ruidoTodas estas desventajas son solventables por usuarios "expertos", con buena refrigeración (casi obligatoria q sea líkida), la fuente seguramente de un mínimo de 400w DE VERDAD, y teniendo en cuenta q con una ATI potente no hará tanto ruido, ni el sistema se colgará x el calor ni x falta d corriente... y al usuario le puede molestar más esos defectos q 500 puntos del 3dmark o 5 fps más
-
[contestando a Wolfe]
Jourdain wrote:
(vale vale, lo ultimo que está saliendo ya no va ni a tiros, pero bueno hasta hace nada se lo tragaba todo…).
…Yo tampoco he actualizado por pelas, por rabia que me da que sean tan caras y por no tenerlas ;). Pero va siendo el momento y basicamente, mi límite son 150€.... más lo que me den por la kyro....
Jour-.
-
Jourdain yo también creo que ambas empresas se va a dar un golpe, pero no tanto ahora, sino a final de año o en el año que viene. Ya que va a haber menos demanda de tarjetas nuevas.
Me refiero a que va a pasar lo mismo que con los procesadores , si tienes un Intel o AMD a 300 Mhz evidentemente estará deseando comprarte uno superior ya que este se queda corto, si tienes uno de 900 Mhz, también lo estás deseando pero no tanto, ¿ y si tienes uno de 2,4 Ghz ? yo creo que con esta velocidad ya se puede hacer la mayoría de las cosas actuales y futuras por un tiempo siempre y cuando no te dediques al 3D o cosas que requieran una alta velocidad de procesado.
Por lo que si se compra un 2,4 o incluso uno de 2,8 o 3Ghz, ¿ lo vas a cambiar por uno nuevo pronto ? NO
Con esta velocidad ya vas a aguantar bastante tiempo al menos hasta el 2005 y eso teniendo en cuenta que quieras hacer un uso intenso y exigente del PC.Pues con las gráficas va a pasar igual, quien se compre una Geforce FX 5800 o una Radeon 9800 , va a tener gráfica para rato ya que estas ya son lo suficiente potentes como para hacer cualquier cosa normal conocida, y funcionan bien con FSAA y otros tipos de efectos. Por lo que ya no va a interesar cambiar de gráfica. Y los juegos que realmente aprovechen los nuevos efectos de estas gráficas no saldrán hasta dentro de unos 6 meses y habrá más en el 2004.
Después de esto ya venderán menos tarjetas ya que la gente no va a sentir la necesidad de cambiarla.
Algo parecido (no es lo mismo pero es similar) ya ha pasado con los lectores de CD que se han parado en 52x porque a nadie le interesa más velocidad y técnicamente es más dificil de hacer y que vaya bien, y también ha pasado con los DVD-ROM donde se han parado en 16x por la misma razón, y con las grabadoras de CD que también ya no interesa comprarse una grabadora más rápida de 48x, ahora atacan el mercado del DVD grabable que ya va por 4x.
-
hombre, pues si, lo k pasa es k ya que sacan cpus tan seguidos, podrian bajar el precio, amd y intel, sobretodo intel
asi creo que venderian +, o almenos yo compraria + -
Aqui hay una preview de las posibles características del NV35
Esta sacado de aqui
http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=10184
Para que esto fuera perfecto, tendrían que haber comparado el NV30 con el NV35 para saber que cosas de todas estas son las nuevas o mejoradas y cuales son las que ya tiene el NV30. Algunas son evidentes como que es de 256 bit en vez de 128 y que lleva salidas DVO en vez de DVI.
DVO : salida de video digital
De esto se sabrá con exactitud en la feria E3 que es del 13-16 mayo, donde Nvidia presentará oficialmente este chip.
CineFX ( TM ) Shading Architecture
Support for the Microsoft DirectX 9.0 Pixel Shader 2.0
Support for the DirectX 9.0 Vertex Shader 2.0
Long pixel programs up to 1,024 instructions
Long vertex programs up to 256 static instructions with up to 65,536 instructions executed
Dynamic, conditional execution and flow control
256-bit advanced memory interface combines a wider memory data path with next generation controller technology for superior performance and throughput.
Full 128-bit, studio-quality floating point precision through the entire rendering pipeline with native hardware support for 32 bpp, 64 bpp and 128 bpp rendering modes
Accelerated pixel shaders allow for up to 12 pixel shader operations/clock
Up to 16 textures per rendering pass
Support for sRGB texture format for gamma textures
IntellisampleTM performance technology, a Hi-Res compression technology (HCT), increases performance at higher resolutions through advances in compression and anti-aliasing technology.
Shadow Volume Accelerator – accelerates shadow volumes by maintaining them more accurately and discarding useless information.
Full nViewTM multi-display technology capability
Integrated NTSC/PAL TV encoder supporting resolutions up to 1024x768 without the need for panning with built-in Macrovision copy protection
Microsoft Video Mixing Renderer (VMR) creates support for multiple video windows with full video quality and features in each window
DVD and HDTV-ready MPEG-2 decoding up to 1920 × 1080i resolutions
Dual, integrated 400 MHz RAMDACs for display resolutions up to and including 2048 × 1536 @ 85 Hz
Dual DVO ports for interfacing to external TMDS transmitters and external TV encoders
Dual internal TMDS encoders (one single and one Dual link) able to drive next-generation flat panel displays with resolutions greater than 1600 × 1200
Digital Vibrance Control 3.0
0.13 micron process technology for higher levels of integration and higher operating clock speeds
40 mm × 40 mm, BGA 1309 flip-chip package
Comprehensive Microsoft DirectX 9.0 (and lower) and OpenGL 1.4 (and earlier) support
DirectX and S3TC texture compression -
Aqui también esta la misma noticia pero más clara
http://www.xbitlabs.com/news/video/display/20030415075522.html
Y aqui también esta de Meristation
http://www.meristation.com/sc/noticias/noticia.asp?c=HARD&n=9425
Aunque se presente en Mayo, seguramente no estará en las tiendas quizas hasta finales de Junio. Todavía falta un mes para la presentación.
Y aqui hay varios comentarios sobre este nuevo chip
http://www.geek.com/news/geeknews/2003Mar/bch20030310019037.htm
-
GEFORCE FX 6800
http://www.theinquirer.net/?article=9174
Pues ya estamos en mayo, y al parecer tal y como prometió nvidia, ya tiene todo preparado para el lanzamiento de este chip en la feria E3 de Los Angeles el día 12 de Mayo. Sólo faltan 7 días.
Como ya sabeis, el NV35 va a utilizar memoria DDR normal y no DDR II, pero está previsto que en el cuarto trimestre si salgan tarjetas con el NV35 y CON memoria DDR II. Esto es porque estas memorias son muy nuevas y son muy caras y no les interesa de momento, dada la experiencia que han tenido con la Geforce FX 5800. Además no hay suficiente suministro de estas nuevas memorias.
El NV35 va a usar meorias DDR de Hynix o Samsung de 2.2 ns a 900 Mhz ya que el GPU será a 450 MHz.
Y lo más importante desde el punto de vista del silencio es que NO llevará el Flow FX.
The cooling solution is obviously going to be more reasonable and not so loud as the FX racket was and the partners have high hopes for this Nvidia product.
El ventilador será más razonable y más silencioso.
Los empresarios le van a dar un voto de confianza a Nvidia para ver si este nuevo producto si es bueno y no tiene ningún problema. No es que el 5800 FX sea malo , ya que es excelente y con buen rendimiento y calidad (aunque no superior a una 9800, pero casi), pero tiene un ruido monstruoso y es una tarjeta muy grande y cara de fabricar y vender.
Y finalmente en las tiendas estará entre el 15-30 de Junio. ¿ en España también ? no lo creo
Y como he puesto al principio el nombre provisional es Geforce FX 6800 y habrá como es habitual hasta ahora, habrá versiones Ultra y Normal.
Además supongo que para la misma fecha presentarán los nuevos drivers DETONAR FX v.50.xx para aprovechar al máximo este nuevo NV35 y también las anteriores FX y otras GEFORCE.
-
A falta de que aparezcan los chips en las tiendas, que como ya he dicho desde que se anuncia hasta que se vende pueda pasar una semana o 6 meses queda claro que el FX original fue la mayor metedura de pata de nVidia.
Se nos dijo que la DDR estaba acabada y que el futuro pasaba por la DDRII aunno estando aprovada por el JDEC y sin embargo tiene que volver a la DDR. Ya lo dije hace tiempo, la pauesta por esta memoria era un fracaso puesto que solo un fabricante podia suministrarla.
Y lo del NV35 igual, al final nada de chip nuevo, parece ser que la vida del NV 30 se va a extirar muchisimo, este no es mas que una modificacion (y menor) del NV30, es mas, lo unico que hace es solucioanr los problemas del primero.
nVidia lo esta pasando bastante mal, el 5200 no se vende ni regalado, el 5800 ni existe ni se vende, a ver que pasa.
-
Nadie ha dicho que el NV35 iba a ser un chip nuevo, siempre se ha dicho que este chip era una optimización del original NV30 y es algo parecido a lo que ha hecho ATI con el R300 y ha sacado el R350. El R350 tampoco es un chip nuevo.
Y las 5800 SI que existen y se pueden comprar HOY en algunas tiendas de Madrid y Barcelona. Yo he llamado por teléfono y me lo han confirmado que SI están disponibles, no hayuna gran cantidad, pero sí que estan disponible si alguien lo quiere y además hay de varios fabricantes diferentes, por lo menos de 5 fabricantes.
Que se venda o no, ya no lo sé.
Y dudo mucho que la aparición del Nv35 en las tiendas se retrase 6 meses, yo creo que en Julio ya estarán en algunas tiendas de España.
¿ Bajarán de precio las 5800 con estos nuevos NV35 ?
-
ADIÓS AL ASPIRADOR ;)) ;))
la noticia del nuevo Flow FX provocó rios de post en foros y cantidades de comparaciones con diferentes equipos domésticos de igual nivel de ruido. y fotos Geforce FX FUN
Yo creo que esto , como tu dices pakohuelva, ha sido el mayor fallo de Nvidia y el principal problema del FX 5800 , ¿ quien quiere poner semejante turbina en su PC y además pagar unos 500€ por ello?
http://www.the-inquirer.com/?article=9285
SI el NV35 cumple con las expectativas, será mejor que el Radeon 9800, por lo que ATI ya tiene previsto sacar el 9800 MAXX, que pondría DOS R350 en modo DUAL con lo que conseguiría un aumento de un 50- 70% de aumento de rendimiento.
como ya he dicho en la página anterior en mi anteror post de la otra noticia, que llevará memoria DDR normal a 900 MHZ, por que el GPU va a 450 MHZ
Y a diferencia de la noticia del FX 6800 de la página anterior, aquí se dice que se llamará Geforce FX 5900 Bueno ya se verá cuál será el nombre definitivo, yo creo que FX 6800 es mejor que FX 5900
-
Nunca hemos hablado de que sea un chip nuevo pero siempre se ha supuesto que iba a ser mucho mejos que el NV30, desde siempre se ha creido que el NV35 va a ser lo nunca visto y sin embargo solo soluciona los errores del 30 (por lo que he leido muy por encima).
Sobre las 5800 se supone que llevan mes y medio a la venta y sin embargo en la mayoria de las tiendas online no disponen de dichas tarjetas, siempre hay un plazo de entraga de unos 10 dias, esto es debido a que ellos la compran cuando tu la pides.
Si hay pocas es porque no se venden, si se vendieran bien no habria problema en tener un stock mas o menos elevado porque sabes que se van a vender.
Ademas, la prueba de que es un fracaso es que nadie del foro la tiene mientras que con la 9700 falto tiempo para que la gente la comprra a pesar de lo que costaba, ademas la gente parece ser que no tiene mucha intencion de comprarla, ya veremos si con esos drivers nuevos la cosa cambia.
Y mucho me temo que las 5800 bajen de precio. Seguramente fuesen verdad esos rumores de que se iban a fabricar muy pocas unidades de la 5800 y sean directamente sustituidas por las nuevas.
-
Eso si que no me lo creo, es mas, si fuese el dia de los inocentes seria la noticia estrella.
Vamos a ver, al margen de dificultades tecnicas a la hora de poner 2 unidades T&L funcionando juntas, cquien se va a gastar esa cantidad de dinero en una tarjeta con dos chips cuando Ati tiene una tarjeta funcionando a ¿400? Mhz y fabricada con tecologia de 0.13 micras. ¿No seria mucho mas sencillo fabricarla en 0.13 micras y poner la a 500Mhz?. Y de paso seria mucho mas economico.
Por dios cuanta tonteria se lee en la red.
-
Caracteristicas y precios:
GeForce FX 5900 Ultra: NVIDIA NV35 GPU clocked at 450MHz and 256MB of DDR SDRAM clocked at 850MHz and utilizing 256-bit bus. All graphics cards will be equipped with DVI-I, D-Sub and VIVO connectors. The ESP for the part is 499 Euros or Dollars, expected time of availability if June.
GeForce FX 5900: NVIDIA NV35 GPU and 128MB of DDR SDRAM utilizing 256-bit bus. Lower GPU and memory frequencies. All graphics cards will be equipped with DVI-I, D-Sub and TV-Out connectors. The ESP for the part is 399 Euros or Dollars, expected time of availability if June.
GeForce FX 5900 Value: NVIDIA NV35 GPU and 128MB of DDR SDRAM utilizing 256-bit bus. Lower GPU and memory clocks. All graphics cards will be equipped with DVI-I, D-Sub and TV-Out connectors. The ESP for the part is 299 Euros or Dollars, expected time of availability if June.
One more important thing about the GeForce FX 5900-series. Forget about the FlowFX.:sisi:
Traducido d 3dchips-fr.comAdios al aspirador!!
Segun parece eso de k incluye de serie el VIVO no esta muy claro..
PD: Los de Xbit han quitao las fotos, pero por lo k pude ver es muy parecido sino identico a la FX 5800 no Ultra
Un ejemplo aki: http://www.vr-zone.com/reviews/Inno3D/FX5800/page2.htmSalu2!:sisi:
-
Packo, ATI ya puso una vez una tarjeta con 2 procesadores con 32+32 mb de ram, salia salada, pero ya tienen experiencia con eso. Solo un fallo, cada unidad iba por su cuenta y riesgo, pero aunque fuese mentira me gustaria verla.
Spaceray, tienen que haber mejorado muuuucho el diseño del NV35, porque viendo las temperaturas de NV30, si le quitan la aspiradora esa, me se de mas de una grafica frita. ñummmm, que rico, hoy NV35 frita.
y espera, que se presenta en nada pero hasta junio no estara visible…. me suena a otro fiasco mas para intentar salir del paso. ¿Con que la venderan? con NL? jias, eso tengo ganas de verlo. -
NO creo que Nvidia sea capaz de cagarla dos veces, ya que sería realmente muy malo para Nvidia si el nuevo dispador del Nv35 NO funcionara. Yo creoq que algo habrán hecho para que el NV35 se caliente menos o que el nuevo disipador sea lo suficiente potente como para poder refrigerar adecuadamente a este chip sin hacer el enorme ruido que hacía el FLOW FX.
Me supongo que habrán hecho varias pruebas y no será posible que una NV35 se fria (al menos no sin aceite ) tal vez aprovechen también el RL de la GEFORCE FX que va a sacar Gainward.
Lo que si es posible y que pueda dar problemas es que el calor desprendido por ese gran disipador nuevo va a ir directamente dentro de la caja, y eso si puede ser malo y dar problemas en cajas que no estén suficientemente refrigeradas, que son muchas.
Ya que el objetivo principal del OTES y del Flow FX es sacar fuera el calor producido por la tarjeta, el problema mayor es el gran ruido que producen estas soluciones.
Bueno, el lunes 12 ya aparecerán más respuestas a esto y se sabrá exactamente como es, y la semana que viene habrá muchas reviews y explicaciones de como funciona y si realmente es bueno o es un nuevo fiasco.
Ahora si que NVidia si falla con esta tarjeta puede perder mucho, ya que la siguiente no esta prevista hasta Diciembre - enero.
-
garfield, Ati saco una tarjeta con dos procesadores que no tenian unidad T&L, la Ati Fury MAXX creo recordar.
Mi teoria es que si un chip grafico tiene 2 unidades T&L funcionando a la vez, por la naturaleza de estas seria imposible o muy dificil hacerlas funcionar a la vez.
Ya lo he explicado otra vez pero vuelvo a hacerlo. Una T&L se encarga de los calculos de iluminacion y transformacion y hasta ahora cuando una tarjeta tenia dos chips o bien uno renderizaba una linea y el otro la siguiente (3dfx) o bien cada uno frame. Si tenemos una fuente de luz en la esquina superior derecha que afecta a toda la escena, ¿como dividmos el trabajo?.
Que conste que hay tarjetas con mas de dos procesadores graficos con T&L pero estos se utilizan solo para renderizar segun tengo entendido.
Yo lo veo complicado.
Y sobre el NV35: http://www.vr-zone.com/#3004 para mi que ha vuelto a cagar o por lo menos no soluciona el problema de los 2 slots.
-
¿ y porque se le da tanta importancia al hecho de que ocupe el AGP y el primer puerto PCI ( 2 slots ) ?
Que yo sepa no es recomendable poner una tarjeta PCI en el slot 1 ya que este esta compartido y puede dar problemas, además hay normalmente otros cuatro PCI para conectar las tarjetas.
A mi no me importa nada si lo ocupa o no, lo que importa es el rendimiento y la calidad.
–------------------------------------------------
Sobre lo de que saquen o no una tarjeta con dos Radeon, creo que llevas razón en que no es posible de una forma normal por lo del T&L y además saldría muy cara , y necesitaría mucha potencia y sería una tarjeta tal vez demasiado grande.