NV30 mas cerquita ^^
-
jejeje, siempre dicen que la tarjeta que van a sacar es "la mejor del mundo y cambiará la concepción del mundo digital" Eso se llama MARKETING. No es en tiempo real ni LOCA, y por supuesto para la realidad virtual aceptable queda todavía muuuucho.
Un saludo.
-
Si alguien quiere ver como acaba…. que lea las 100 opiniones mas que hay sobre imagenes de NV30 en:
http://discuss.madonion.com/forum/showflat.pl?Cat=&Board=techdisplayadapters&Number=1012768&page=&view=&sb=&o=&fpart=1&vc=1
:D:Duna de ellas dice….:
What does it matter if it is done by as well by an onboard card.. how LONG did it take? For all we know, they did it REAL time, not taking 2 min per frame...
And just because the models were already done in Maya means nothing.... 3d Mark was made in maya, but is still RENDERED by the card.... the NV30 may be able to render that via-Maya in real time... no lag.....O una un poco mas tecnica:
Then we have people here saying it's rendered with Maya.
However, nVidia owns Exluna, so would have access to the wire-frame and texture models that were used for the Maya rendering artwork shown over at ExLuna, so they could quite easily have been rendered on the NV30, much like how nVidia did a "Luxo Jr" in realtime demonstration on the GF3 due to their relationship with Pixar and Steve Jobs, and using exactly the same textures and models that were originally used. Now, everyone could have just said that the Luxo Jr on the GF3 was fake too, because it could've just been a mpeg movie running on the box, but it was actually rendered in real-time.
So, just because the art has once in the past been rendered on Maya, does not mean that in this instance that they are not or were not rendered on an NV30.
Upshot is that it could be fake, or it may in fact be real, and the point of the artwork is to show how close the NV30 can come to producing stuff that looks like it's been rendered in Maya, but in realtime...just like the point of rendering Luxo Jr in realtime on the GF3 was to show how capable it was of rendering near to the Cray XMP quality that was originally used in the rendering of Luxo Jr.
Enga! A aprender ingles q l verano hay tiempo pa too
-
Aprobé inglés por los pelos de un calvo…
-
Pa que pones eso en ingles si no nos enteramos ni del español.
Viena a decir que no importa cuanto tiempo tardo y que aunque los modelos furan generados por Maya, el render de los mismos si es en tiempo real.
Para la segunda pues lo mismo pone el ejemplo de unos animadores que trabjaron con la GF3 y dicen que si, que es tiempo real, que aunque hechos en Maya el render es en TR con el NV30.
To esto porque yo se musho ingles y esta el traductor del altavista que si no…
Pues yo sigo con lo mismo si tiempo real es que se genera a la vez que lo haces, ya sea desde maya o desde lo que sea, la imagen te tiene que aparecer justo cuando pulsas el boton de render, mas o menos en 0.04 segundos, poco tiempo, ¿no?.
-
El texto ya lo entendí eh, q tengo notable n ingles ^^
-
Ya imagino que tu lo entendiste, estaria bueno que lo pusieras sin entenderlo
Pero es para el que no lo entienda o le de pereza, como yo vamos. ¿Dice eso mas o menos verdad?.
-
imposible de k un render se haga tan rapido por muy simple k sea, ademas en la foto del mar con raytrance, y mas efecto k debe de tener no lo puede hacer. Ademas o yo me voy por las ramas o no entiendo. El render no lo hace la tarjeta sino k es a base de micro y memoria, es decir, no es la tarjeta quien renderiza, k yo sepa no hay ninguna tarjeta grafica k haga renderizados (hubo una 3dlabs k no se k llevaba para ayudar al render). Lo k hay son pci k hacen el render o ayudan pero de hay a k aya graficas, vamos k por el momento imposible, y en tiempo real pues aun menos. Si para quitar un fotograma de cualquier pelicula 3d le lleva su tiempo.
-
Pues lo de nVidia lo han inventado
Yo lo que no me explico es como se pueden montar estas discusiones por cosas tan tontas, y no lo digo por lo de este foro, sino por el del madonion ese, que ahi si que se lo toman en serio.
Si la tarjeta no sale hasta dentro de 3 meses, mas o menos, como es que esa gente ya tiene imagenes hehas por ella y no han aparecido en la web de nVidia por ejemplo. Ha estas alturas seguramente la NV30 este todavia simulada o como mucho fabricandose los chips de prueba.
-
Menudo pepino en comparacion con la Ti4600, la 9700 si se cumple todo esto se kedará bastante corta, no kiero ni pensar lo que costará esta "criatura" :rolleyes: :
-In Quake III Arena in 1280x1024 with 4x FSAA enabled, NV30 is going to be 2.5 times faster than the GeForce4 Ti4600.
-In The Next Doom the board based on NV30 will be able to show 3.5 times or or even more of the performance the current Nvidia`s flagman has to offer us there.
-NV30 will score three times more than the GeForce4 Ti4600 in 3D Mark 2001.
-Effective HQ Pixel Fillrate (2x anisotropic filtering enabled) of the newcomer with will be about 2.7 times more than that of the fastest NV25.
-As for pixel-shading speed, it will be 4 times of the NV25.
-Nvidia claims that its upcoming GPU is capable of processing 200 millions triangles per second.
Salu2!
-
Ya lo habia leido, pero solo son rumores, aunque creo que el nv30 va a ser un punto de inflexion, para lo bueno o lo malo.
-
Publicado Originalmente por VoRoK
**-NV30 will score three times more than the GeForce4 Ti4600 in 3D Mark 2001.**
Hmmm ¿ahí no se habrán pasado un pelín nada más?:rolleyes: , porque 3 veces la puntuación de una TI 4600 sin overclockear..es 3x10000=30000 puntos , lo veo algo exagerado no creéis.
-
Wenas,
La verdad que es este dato el ke mas duda causa, yo sinceramente x3 la puntuación del 3dmark no la da, y si la da a ver que procesador le pones a eso de aki a septiembre que vaya acorde con ese bixo… en fin, todo se andará.
Salu2!
-
A ver kien es el wapo ke tiene pasta pa comprarse tarjetas de la Ti4200 hacia arriba cojones
-
¿EL R300 no iba a alcanzar los 30000 puntos tambien?. Lo de esa pagina se basa todo en especulaciones y valores teoricos. Vosotros pensad, te piyas el ancho de memoria teorico de la DDR-II con 256 bits y a mas velocidad, le sumais la potencia teorica del micro y te sale eso.
Si es cierto que lleva memoria DDR II lo vamos a flipar poruqe todavia no se fabrica, nos va a costar un riñon. Supongo que primero sacaran una version con DDR normal.