NV40, antes de que lo ponga SpaceRay…
-
Yo me quedo con esto "1.5Ghz effective GDDR2"
Ya podian montar memoria de esa velocidad en las placas base…
Venderian más cantidad se amortizaría antes + y se reduciría el coste. En vez de seguir subiendo tan lentamente, ni que fueran procesadores...
P.D: GDDR-2??? no era DDR-2 a secas?
Que traerá de nueva la del tipo G?
Editado:
O se refiere simplemente a memoria que llega al Gigahercio? Vamos + cosa de Marketing = Paga más -
la G es de Graphic, no sé la optimización q tendrá, o simplemente es marketing…
lo q no pone, es cómo van a hacer para ventilar ese bicho sin provocar sordera :risitas: :risitas: :risitas:
-
Pakohuelva, muy bueno el titular de la rama
Y también me da risa el hecho de que yo YA puse una rama rama de la NV40 en MAYO del 2003 y que aparece simplemente buscando en el foro poniendo "NV40" –> VER AQUI
La rama es esta –> http://www.hardlimit.com/forum/showthread.php?s=&threadid=17795&highlight=nv40
Aunque pakohuelva, NO tienes que cambiar de rama porque esta rama que yo puse es antigua y es de mayo y además en esa rama se dicen varias tonterías en las especificaciones y que pueden confundir a la gente
Te recomiendo que dejes esta rama y no la cambies
Por cierto si quieres correr carreras a ver quien pone antes las noticias, podemos jugar y ver quien gana
Es broma.–-----------------------------------------------------------
Lo de que los famosos detonator 50 salen el día 15 de septiembre ? que casualidad que justo ese día se publica el Aquamark 3 ¿ Nvidia no lo sabía verdad? ¿ y también estarán trucados para ese benchmark ?
Nvidia Detonator 50 to be launched September 15th?
Estas especificaciones se parecen ciertamente a las que aparecieron en febrero 2003 , solo que el número de transistores es la mitad.
¿ Seguirá siendo verdad eso que decían que iba a necesitar una fuente de alimentación específica solo para la tarjeta ?
Esta NV40 va a ser de las primeras en llevar el nuevo PCI EXPRESS y que elimina el AGP
-
Los 1.5 Ghz son de 750Mhz x 2, asi que no es tanto.
Y yo lo he puesto como curiosidad, la verdad es que no me lo creo demasaido.
Y a lo de las noticias mejor no que ganas tu, simplemente lo puse porque se que a ti te gusta mucho informarte de nVidia y que no tardarias en ponerlo.
Lo del PCI Express pues como siempre, las primeras placas casi para la segunda mitad del proximo año y un añito mas placas con AGP+PCI E
-
175m de transistores? y con que piensan refrigerar eso? NL2??¿¿?? porque a mi me "losplican", porque si la NV35 se pone a 82º como si nada, en NV40 a menos de 100º naita
-
En la caja te vienen la tarjeta, el conversor PCI-AGP, el cd de drivers, el cd del reproductor, el cd de demos, 3 cds con juegos, el conversor DVi-VGA, el cable Svideo y el adaptador a RCA y un directivo de marketing de nVidia con un embudo y un abanico, una caja con pedales y un cable molex.
El sistema de refrigeracion consistira en que el directivo pondra su dedo indice sobre ls GPU y cuando detecte un aumento de temperatura debera mover el abanico que empujara el aire hasta dicho chip enfirandolo, logicamente mientas mas temperatura detecte el sensor de este hombre mas rapido se movera el abanico. Ademas para refrigerar la memoria soplara sobre estas con la potencia necesaria en funcion de la temperatura que marque el sensor.
Puesto que el consumo de potencia rondara los 200W, el susodicho sujeto estara peladeando ya que la caja incluye una dinamo capaz de sumitrar potencia electrica en funcion de la temperatura que detecta el individuo, puesto que a mayor temperatura mayor consumo (o al reves).
Por supuesto la alimentacion de dicho dispositivo (el tio de nVidia) correra por cuenta del cliente.
Cuando tengas algun problema con la tarjeta puedes consultarle sin problemas que el no te lo solucionara pero te dira que es la mejor tarjeta (despues de todo es de marketing y no un tecnico):p
P.D.: Son los examenes.
-
Pakohuelva
mejor será que acabes los examenes pronto
–--------------------------------------------------------------
Ya se como van a refrigerar el NV40 , en la caja van a incluir este "pequeño" ventilador que se ve en la foto para poder refrigerar bien la GPU
Claro que para dar suficiente frio tendría que girar rápido
Este es el ventilador que digo
Y el ruido que haga no importa , ya lo dijeron los de Nvidia en su video
Pero, ¿ no pensais que alguna gente va a pensar que esta tarjeta es muy ruidosa y que tenga un sonido muy alto ?
Trae aqui, idiota. Cuando alguien compra una Harley Davidson, o un Porsche, lo que les gusta es el diseño, el aspecto y el ruido característico que tienen
ver post y texto completo completo del video aqui –-> http://www.hardlimit.com/forum/showthread.php?s=&threadid=18209&highlight=geforce+5800+video
-
y tanto que si…. fuerte rayada pako. Creo que necesitas terminar ya los examenes:risitas: xD xD xD xD xD xD
-
¿ Conseguiran con el NV40 que sea un chip realmente bueno que supere a ATI y que NO tenga problemas raros y tenga un buen rendimiento tanto en OpenGL como en Direct X 9, y también con los pixels y vertex shaders?
Nvidia ha acumulado ya muchos fallos, y ya con este último del mal rendimiento de sus tarjetas en el Half life 2, ha sido la guinda de los errores.
Y se ve que Nvidia es principalmente mucho marketing y mucha buena imagen que dan en su web, pero la verdad es que el marketing NO nos ayuda a jugar y ha obtener un buen rendimiento. Lo que importa realmente es la calidad del producto que vendes y que produzca un buen rendimiento.
-
La respuesta es si pero con matices.
Esta claro que las FX ha sido el mayor fracaso en la historia de nVidia y que el NV40 al menos solucionara todos sus problemas. Habra que ver si ademas de esto tambien consigue igualar a la proxima generacion de ati cosa algo mas complicada.
Con un poco de suerte nVidia habra aprendido que los desarrolladores no fan a programar para su tarjeta y que tiene que seguir el estandar con lo que se dejara de funciones que nadie usa y empezara a darle caña a las "normales"
La cuestion es si el NV40 esta a tiempo de modificarse o ya contaban con estos fallos cuando se planifico o si arrastrara alguno de estos problemas.
-
He visto esto
He conceded that the GeForce FX 5800 was a failure, and that nVidia had "temporarily" ceded the performance crown to ATI. The rep further claimed that the NV40 core would be out by the end of this year, and that it would be an entirely new core. He was confident that the new part would be up to twice as fast as the NV35.
Esta sacado de una entrevista a Nvidia sobre el NV40
Recononcen que la FX5800 fue un fallo, y que ellos son muy generosos ya que le han cedido amablemente la corona de rey a ATI :D, pero eso sí , sólo temporalmente :sisi: ¿de verdad?
Y que el NV40 es una arquitectura completamente nueva y que esta será el doble de rápida que la FX5900
A ver si es verdad que la NV40 funciona bien y que no tiene ninguno de los fallos de las FX. Por cierto espero que a Nvidia no se le ocurra llamar a estas FX 2. yo creo que tendrían que eliminar todo rastro de FX ya que les ha traido mala suerte y mala imagen.
Si la NV40 será el doble de rápido que la Nv35, entonces ¿ estará al nivel de la Radeon 9800 PRO?, ya que en las pruebas del Half LIfe 2, se ve que la FX 5900 es la mitad de rápida que esta 9800 PRO
Espero que sea de verdad más rápida y pueda competir con ATI, porque sino ATI se la va a comer con su R420.
-
se comenta que la nv 40 tiene una arquitectura 82 y la r420 121 …. el paso de los 4 a los 8 pipelines en una 9500 aumentaba el rendimiento en un 75 por cien casi( que me corrija alguien si me equivoco) creo en el 3 d mark del 2003 y en el rendimiento con filtros
asi que quizas , a la misma frecuencia , podriamos espera esto
r 420 = 40 por cien mas rendimieto que una r 300 o 350
nv 40 = 75 por cien mas que una 5900
finalmente, parece que estarian igualadas, pero el problema es que las radeon van a frecuencias un un 15 o 20 por cien mas bajas, por lo tanto tiene mas margen de subida..pero claro estamos hablando de otra gpu y solo son pajas mentales
PACO , comentanos como lo ves
-
Yo hasta que no tenga datos concretos no opino, mas que nada porque no me los creo y no me gusta seguirle la corriente a estos que sacan informaciones cada 2x3 sin ninguna base.
Todavia no se sabe la configuracion que tienen las Fx, sus especificaciones hablan de un array asi que no se sabe si es 4x2, 8x1 o 24x12 asi que es dificil compararla con nada.
Tampoco tiene porque ser un x % mejor una tarejta con otra configuracion de pipes y unidades de render, eso va a depender mucho de la arquitectura de la tarjeta y de como se trabaje con ella. Al principio las tarjetas con varias unidades de texturas y renders por pipe ganaban mucho en los juegos multitexturas, despues se volvio a una unidad por pipe y se aumento otra vez el rendimiento asi que no se puede decir nada claramente.
La eleccion de mas o menus unidades por pipe creo que solo va en funcion de la simplificacion de la arquitectura, mientras mas unidades tenga un micro mas compleja sera la comunicacion y coordinacion entre ellas.
-
No habia unas Vodoo bashee k llevavan memorias GDR ??????
esto puede tener algo k ver GDDR2,no?¿las banshee k llevava ensas memorias corrian + k las de SDR:rolleyes:
-
Samsung le ha vendido y entregado ya a Nvidia, 10.000 de sus nueva memorias GDDR2 de 1600 Mhz.
Teóricamente esta memorias de 1600 Mhz de 256bit consiguen un ancho de banda de 51,2 GB/s
Estas memorias son para ser probadas en los nuevos NV-40, esto no quiere decir que las NV40, vayan a llegar seguro estas memorias, pero esto da una idea del tipo de memoria que llevarán.
ver la noticia aqui
http://www.xbitlabs.com/news/video/display/20030918134855.html
–-----------------------------------------------------------------------
BROMA A NVIDIA
En la presentación del PCI express en la conferencia de Intel developer forum, los que estaban en el stand de ATI se dieron cuenta de un pequeño detalle del stand de Nvidia.
Si se miraba con detalle el mostrador se podía leer un cartel que decía ¿ Cuál es el máximo PCI express que se requiere para el 2004? y debajo alguien había pegado una pegatina de ATI Technologies
ATI asegura que no fue nadie de su equipo que lo hizo y tiene que haber sido alguien del público al cuál le gusta ATI :sisi:
Mirad aqui las fotos y mirad a la parte derecha del mostrador que hay una pegatina roja de ATI.
-
Parece ser que el NV38 saldra el proximo dia 10, ya veremos que pasa.
http://www.xbitlabs.com/news/video/display/20030930090915.html
-
Parece ser que el NV38 saldra el proximo dia 10, ya veremos que pasa.
http://www.theinquirer.net/?article=12020
pues ha pasado lo que pasa mucha veces que se ha aplazado, ya estamos a día 15 y no ha salido y aqui hay una noticia que dice que del 10 pasó al 18 y que luego pasó al 20 y al final parece que va a salir el día 23 de octubre
Originally Nvidia planed to launch this card next Friday on the 18th then it postponed it to the 20th and the last date that we heard was the 23rd. Mike heard the 10th.
–--------------------------------
http://www.theinquirer.net/?article=12085
Y la próxima generación o sea el Nv40 no saldrá hasta el primer trimestre del 2004 al igual que la R420 de ATI, y teiendo en cuenta que en cuanto salga una nueva generación de tarjetas las otras se quedan más antiguas y las tienen que bajar de precio.
También se rumorea que podría ser para el lanzamiento del Doom 3 que es el día 29 de Marzo 2003
-
Pero hombre, ¿eso lo habia dicho nVidia?. Que yo sepa no, pues mientras no lo diga el fabricante son rumores y por lo tanto no son retrasos ni nada de eso.
-
y ¿ quien ha dicho lo del día 10 de octubre ? yo no se de donde vino ese rumor
pero lo que si es evidente que el 10 es imposible que salga porque estamos a día 15 y en la web de Nvidia todavía no hay nada del nv38
y de que sea o no el 23 de octubre pues no lo sé, pero en la noticia se dice que es la propia Nvidia quién ha dicho lo del retraso y cambio de fechas.
Originally Nvidia planed to launch this card next Friday on the 18th then it postponed it to the 20th and the last date that we heard was the 23rd. Mike heard the 10th.
Tal vez Nvidia esté esperando que ATI saque las 9600 XT y las 9800 XT
-
y… ejem... esto.... esta vez piensan cumplir el standard Directx9??? o volveran a hacer lo ke les salen de los kojones??
curiosidad xD