Primeros rumores sobre las especificaciones del G92


  • 0

    Comienzan a dar a luz los primeros rumores sobre las posibles especificaciones de la proxima GPU diseñada por nVidia y que de momento parece que será presentada en el mes de noviembre de este año. Estas son las especificaciones:

    *Proceso de fabricacion de 65nm fabricado por TSMC

    *Más de 1000 millónes de transistores

    *Arquitectura de Shaders unificados de 2º generación

    *Soporte para doble precisión (FP64)

    *Arquitectura nativa GPGPU

    *Potencia total de los Shaders de más de 1 TeraFLOP

    *Configuracion MADD + ADD para los Shaders ( 2 + 1 FLOPS = 3FLOPs por ALU)

    *Diseño completamente escalar

    *Interfaz de memoria de 512 bits

    *1Gb de memoria GDDR4

    *Soporte para DirectX 10.1 y OpenGL 3.0

    *Chip de memoria EDRAM para la aplicacion del Antialias a 4x sin perdida de Rendimiento (Free 4xAA) (Al igual que el chip Xenos de la XBOX 360)

    Funcionamiento de la GPU ATI Xenos integrada en la 360 con chip edRAM

    *Chip de sonido integrado para la salida de audio desde el conector HDMI(Al igual que la serie HD2k de ATI)

    *Unidad de Tesselación integrada en la Arquitectura(Al igual que la serie HD2K de ATI)

    Diagrama del funcionamiento de la texelación en las Radeon HD2000

    *Mejorados el AntiAliasing y Filtro anisotropico

    Link:techPowerUp!

    EDIT: Parece que las especificaciones son correctas, ya que segun esta noticia, los samples comenzarán a ser fabricados en septiembre aunque no está confirmado por parte de nVidia.

    Link:Noticias 3D

    Edicion 7 de septiembre: Segun cuentan en VR-ZONE el G92 es en realidad la 8700GTS, fabricada en 65nm con un bus de memoria de 256bits.

    Link:http://sg.vr-zone.com/articles/Nvidia_G92_is_GeForce_8700_GTS/5236.html



  • 1

    Muchas cosas "similares" a las de ATI-AMD….



  • 2

    Tal vez, para que se entere la gente poco puesta, habria que comentar actualmente que es lo que hay con lo que se supone presentara nvidia:

    Digo se supone por lo que se ha dicho y por lógica debería de sacar nvidia porque de esto no hay nada confirmado oficialmente. Aunque creo que no me voy a ir de mucho con los datos técnicos que tendrá finalmente :p



  • 3

    Las 8800GTX y Ultra tienen 64 TMUs?, yo diría que tienen 32.



  • 4

    @Wargreymon:

    Las 8800GTX y Ultra tienen 64 TMUs?, yo diría que tienen 32.

    No te fies de la wikipedia, son 64 porque el Texture Fillrate se calcula multiplicando los TMUs por el clokc de la grafica:

    Texture Fill Rate = (# of TMUs) x (Core Clock)

    Seguramente esto es porque se han equivocado y los han confundido con los TAUs :p .

    PD: Igual se lee esto Kynes y nos aclara la duda técnica porque la verdad es que tampoco tengo mucha idea.



  • 5

    Yo creía que eran 32, pero ahora me dejas con la duda. En la wikipedia no he entrado yo lo leí hace tiempo en X-Bit Labs :

    http://www.xbitlabs.com/articles/video/display/gf8800_7.html#sect1



  • 6

    Pues si ya comen watios y se calientan las de hoy en día…. ...no me imagino cómo irán las cosas con más de un billón de transistores dentro :rollani:



  • 7

    La 9800 GTX es una bomba!
    A ver si los datos son iguales a la hora de la verdad :rollani:



  • 8

    Para mi que se estan hablando de un billon de transistores, pero billon en INGLES es mil millones, no como en España, que es un millon de millones.



  • 9

    @fricoberto:

    Para mi que se estan hablando de un billon de transistores, pero billon en INGLES es mil millones, no como en España, que es un millon de millones.

    Segun la wikipedia ni los inglesese se aclaran a la hora de determinalrlo:

    http://es.wikipedia.org/wiki/Bill%C3%B3n

    Billón

    En lengua española, un billón equivale a 1012 (1 000 000 000 000). Este uso es común en la mayor parte de los países de Europa y de América Latina y es el único reconocido por la Real Academia Española. El origen de esta denominación data del siglo XV.

    El otro billón

    En el siglo XVII una corriente de matemáticos minoritaria francesa e italiana adoptó la denominación de billón para mil millones (109 ó 1 000 000 000), número que el resto llamaba millardo. Este significado es el que el inglés estadounidense y el portugués brasileño han hecho suyo y otras lenguas también como el idioma griego y el idioma turco; el inglés británico mantuvo la denominación tradicional hasta hace poco.

    Errores de traducción

    En consecuencia, se suelen cometer errores al traducir artículos del inglés a otros idiomas. Incluso los británicos pueden desconocer si en un texto en inglés habla de "mil millones" o "millón de millones", ya que ambos usos coexisten, aunque el primero es actualmente prioritario en su idioma. El mismo error de comprensión surge cuando se habla de números más elevados (por ej. Trillion).

    Un error común en los países de nuestra habla, barbarismo proveniente del inglés (donde el término "billion" significa "mil millones"), es llamar billonario a un individuo que posee una fortuna accesible de al menos mil millones de alguna divisa (normalmente, en dólares). El error está en la cantidad implicada: por un lado, en 2006, no hay persona alguna que posea un billón de dólares (1 000 000 000 000,00 U$S); por el otro, si la referencia es con respecto a alguien que posea 1 000 000 000,00 U$S o más, entonces claramente la persona es mil millonaria o millardaria, según se prefiera.

    Lo que demuestra mi teoría de que los ingleses son gixipxllxs :sisi: , aunque esta claro que hablamos de 1000Millones viendo cuantos transistores tienen los actuales GPUs.



  • 10

    @Alien8:

    Pues si ya comen watios y se calientan las de hoy en día…. ...no me imagino cómo irán las cosas con más de un billón de transistores dentro

    Hombre, están fabricados a 65nm, eso se notará bastante a la hora de ver el consumo y el calor de estas GPUs. Además, no creo que ATI y nVidia esten muy agusto por las quejas de consumo de sus productos, asi que supongo que consumirán parecido a las 8800 actuales.



  • 11

    G92, Geforce 9800 samples in September.

    Nvidia is doing the final preparations in order to send the first samples of Geforce 9800 or something that we know as G92 to its high end partners and developers.

    Very few privileged people will get one that early and if all goes well there will be some G92 cards in some developers and customers PC already in September.

    Nvidia is about to gather a lot of editors to tell them how good the new chips in October and the reviews and the real retail / etail launch is expected in November.

    Of course this means that the G92 chip is taped out and that it works well.
    Fuente.

    Es decir, las G92 están en proceso de ser enviada a desarrolladores en Septiembre. En Octubre se tendrán las primeras impresiones y análisis, y en Noviembre saldrán a la calle, después de tener las primeras review.
    Vamos que las 8800 se van a quedar viejas en…breve xD Joe, vaya Pepinacos, supongo que ya la gama media serán con memorias de 256Bits, no? :P

    Por cierto, las 9800 y 9600 (no se si sacaran las 9500)…no os recordaran a las Ati? jeje, yo siempre quise tener una Radeon 9800, es decir, me tendré que hacer con alguna Geforce 9800, a si compenso ;)

    Saludos!!



  • 12

    Por cierto, las 9800 y 9600 (no se si sacaran las 9500)…no os recordaran a las Ati? jeje, yo siempre quise tener una Radeon 9800, es decir, me tendré que hacer con alguna Geforce 9800, a si compenso

    Nadie a dicho que se vayan a llamar GeForce 9 (aunque sea asi seguramente), pero lo tiene que confirmar nVidia, jeje ;D



  • 13

    @Wargreymon:

    Nadie a dicho que se vayan a llamar GeForce 9 (aunque sea asi seguramente), pero lo tiene que confirmar nVidia, jeje ;D

    Tienes razón, pero como ya s la costumbre :) Lo mismo las llama 9900, 9700 y 9400/9300 no? vete tu a saber.
    Pero lo mismo una 9800 (o como se llame) "GTS" si que me pillo, ummm, creo que si. Pero todavía falta mucho tiempo para eso, jaja, yo hasta bien entrado el próximo año…aguanto con lo que hay (7900)

    Saludos!!



  • 14

    He visto noticias no oficiales de que la 9800gtx saldrá en noviembre…a ver si es verdad

    Salu2
    PD:Se acerca una oleada de buenos gráficos...de cuidado :sisi:



  • 15
    ¡Esta publicación está eliminada!


  • 16

    @Neptunno:

    Pero lo mismo una 9800 (o como se llame) "GTS" si que me pillo, ummm, creo que si. Pero todavía falta mucho tiempo para eso, jaja, yo hasta bien entrado el próximo año…aguanto con lo que hay (7900)

    Jaja, lo mismo haré yo, hasta lo de aguantar con la 7900 :risitas: ;D



  • 17

    @Wargreymon:

    Jaja, lo mismo haré yo, hasta lo de aguantar con la 7900 :risitas: ;D

    Y dice "aguantar" con la 7900, como si fuera poco !!!



  • 18

    @Espinetenbolas:

    No te fies de la wikipedia, son 64 porque el Texture Fillrate se calcula multiplicando los TMUs por el clokc de la grafica:

    Texture Fill Rate = (# of TMUs) x (Core Clock)

    Seguramente esto es porque se han equivocado y los han confundido con los TAUs :p .

    PD: Igual se lee esto Kynes y nos aclara la duda técnica porque la verdad es que tampoco tengo mucha idea.

    G80 32 TMU, lo que pasa es que cada una saca dos muestras bilineales por ciclo de reloj (ambas tienen que ser de la misma textura) lo que permite tener un trilineal "gratis" en cuanto a capacidad de texturización (si no tenemos en cuenta el ancho de banda de más consumido) porque el bilineal y el trilineal consumen el mismo número de unidades de texturas durante los mismos ciclos, y esto implica que no tenemos ventaja al pasar a bilineal siempre que lo que falte no sea ancho de banda.

    De todos modos son solo números, sin saber las capacidades de cada TMU da igual que sean 16 o 256, ya que no se pueden comparar.



  • 19

    Pues ya esta claro :girl:





Has perdido la conexión. Reconectando a Hardlimit.