• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse

    27573 puntos en el 3DMARK

    Programado Fijo Cerrado Movido
    Tarjetas Gráficas
    17
    48
    2.6k
    Cargando más mensajes
    • Más antiguo a más nuevo
    • Más nuevo a más antiguo
    • Mayor número de Votos
    Responder
    • Responder como tema
    Accede para responder
    Este tema ha sido borrado. Solo los usuarios que tengan privilegios de administración de temas pueden verlo.
    • ErmanzanE
      Ermanzan
      Última edición por

      ¡¡¡Madre mia que mala bestia de Vga!!!, pues si, parece que Ati viene apretando muy fuerte; me da que nVidia de esta se lleva un buen susto;)

      Un saludo:D

      PD: Pues yo sigo pensando que es la Banshee:p

      1 Respuesta Última respuesta Responder Citar 0
      • NOLDORN
        NOLDOR
        Última edición por

        estais seguros de ke un pavo a probado ese makinote, asi por las buenas, y dice la verdad?yo es k soy un poko desconfiado, pero por lo k e podido entender un pavo de ati le ha regalado una tarjeta beta asi por el morro, para ke la pruebe y porke si, y sin embargo con semejante rendimiento no van corriendo a decirselo a las webs especializadas en reviews???seria un puntazo para ati, le dan donde duele a nvidia y se kitan del medio el parhelia ke tan a bombo y platillo habia sido anunciado, kedaria relegado a un segundo plano.

        no os parece raro?mira ke el photoshop a avanzado mucho:D 😄 😄

        PD: si os fijais, segun el en el test no ha hecho nada mas ke los juegos, ninguno de los otros test

        taluegor

        1 Respuesta Última respuesta Responder Citar 0
        • MarteM
          Marte
          Última edición por

          IMPRESIONANTE.

          Eso es una barbaridad… vaya tarjeton que va a salir. Y yo con mi Radeon 8500 que estaba super orgulloso 😞

          ATI apuesta fuerte ¿eh? Con esta nueva generación de tarjetas ya no se puede decir que Nvidia domine el campo de las gráficas...

          Un saludo.

          1 Respuesta Última respuesta Responder Citar 0
          • krampakK
            krampak Global Moderator
            Última edición por

            Peazo fake….

            1: Como puede el 3dmark detectar que es una Radeon 9500 MAX si ni hoy aun detecta la GF4.

            2:The benchmark was not run using default settings.... Queda todo dicho.

            3: Project: Test not run yet. ?¿?¿? como puede conseguir 27K si aun no ha hecho el bench?

            4: Miremos los Frames Por Segundo....

            (398.8+497.9+304.3)*10 + (138.1+266.3+146.2+144.9)*20 = 25920 Se lo podia haber currado un poquito mas y hacer bien la media…

            No habeis seguido leiendo el foro? 😄

            Y otra deducion, no sacada de ese foro, con que CPU creeis que se podria sacar ese resultado? Con un P4 3Ghz yo digo q no... se veria limitado por el factor CPU.

            Mi Configuración
            hlbm signature

            1 Respuesta Última respuesta Responder Citar 0
            • shilmarS
              shilmar
              Última edición por

              me parece que krampak tiene razon, ademas triplicar resultados de una GF4 4600 casi pues… no se... me parece mucho

              1 Respuesta Última respuesta Responder Citar 0
              • krampakK
                krampak Global Moderator
                Última edición por

                No llega a doblar el primero con GF4, pero si me parece excesivo… yo le pongo unos... 19/20K con buena optimizacion y extrem o'ing. No os parece¿

                Mi Configuración
                hlbm signature

                1 Respuesta Última respuesta Responder Citar 0
                • P
                  pakohuelva
                  Última edición por

                  Efectivamente era una noticia falsa.

                  http://www.davidhanefelt.dk/3dmark_hoax.jpg

                  Lo cierto es que como ha comentado Krampak, habia demasiadas cosas falsas que saltaban a la vista. Sin embargo de ser cierto hubiese estado bien, ¿no?.

                  De todas formas montar una tarjeta con dos GPU actualmente creo que es imposible por el problema del T&L, ¿como sabe que GPU que parte de la imagen calcular?. Una cosa es aplicar texturas y representar la imagen y otra calcular la geometria.

                  1 Respuesta Última respuesta Responder Citar 0
                  • MarteM
                    Marte
                    Última edición por

                    Jajajajaj, mira que hay que estar aburrido 😉

                    Saludos.

                    1 Respuesta Última respuesta Responder Citar 0
                    • kotonK
                      koton
                      Última edición por

                      pakohuelva, eso de q cpu tiene q calcular cada parte es muy facil, acuerdate de aquellas voodoo II en pararlelo, cada una se ocupaba de media pantalla….....

                      1 Respuesta Última respuesta Responder Citar 0
                      • NOLDORN
                        NOLDOR
                        Última edición por

                        y ati ya ha creado otras veces tarjetas de dos gpu, la fury64 maxx ke llevaba dos procesadores rage128 en paralelo y 64mb, 32 para cada procesador.

                        de todas formas yo no me crei la noticia, esta claro ke esperanzas de ke ati haga algo asi hay, pero mira ke otras veces han engañado a las firmas de reviews, incluso maz se a colado alguna(os acordais del XP3000+?)

                        taluegor

                        1 Respuesta Última respuesta Responder Citar 0
                        • krampakK
                          krampak Global Moderator
                          Última edición por

                          Eso del XP3000+ fue en el dia de los inocentes de usa 😄 Salieron bastantes fakes ese dia..

                          Mi Configuración
                          hlbm signature

                          1 Respuesta Última respuesta Responder Citar 0
                          • NOLDORN
                            NOLDOR
                            Última edición por

                            pues con mas razon para haber sospechado mucho mas….eso si, no te voy a negar ke yo mismo me emocione, ademas el micro era bonito y todo:D

                            1 Respuesta Última respuesta Responder Citar 0
                            • ErmanzanE
                              Ermanzan
                              Última edición por

                              Pos yo me lo zampe enterito….¡¡¡¡inocente de mi!!!!!!:rolleyes:

                              De todos modos el post en el que lo aclara cuando yo lo vi todavia no estaba:)

                              Un saludo:D

                              1 Respuesta Última respuesta Responder Citar 0
                              • P
                                pakohuelva
                                Última edición por

                                Lo que comentais de las dos tarjetas de 3Dfx unidas mediante SLI o los dos micros de ATI, no eran GPUs. En la primera cada tarjeta representaba un frame y en la segunda cada chip una linea de la pantalla, eso no tiene mayor problema.

                                Ahora con las GPU y las unidades T&L es la tarjeta la que calcula la geometria de la escena, los poligonos, como se mueven y se mezclan, por lo que si una GPU representara una pantalla y otra la otra perderian toda la potencia, ya que no sabria donde estaba ese poligono antes y tendria que calcularlo. Me explico, si tienes un triangulo en el fondo de la pantalla, la GPU lo dibuja y para traerlo hacia adelante lo redimensiona, sobre un triangulo que ya conoce. Si son dos GPUs, tendria que volver a dibujar la figura (triangulo) un poco mas cerca.

                                No digo que no se pueda hacer, las CPUs lo hacen, pero ahora mismo no lo veo viable ni tecnocamente posible para una GPU.

                                1 Respuesta Última respuesta Responder Citar 0
                                • NOLDORN
                                  NOLDOR
                                  Última edición por

                                  no tengo ni idea de como rual las graficas, pero no podria hacerse como en el asunto de primero un frame una, y luego un frame la otra? y no habria forma de hacer ke ambas gpus calcularan a la vez una misma escena, acelerando asi su aparcion?

                                  taluegor

                                  1 Respuesta Última respuesta Responder Citar 0
                                  • K
                                    KDT
                                    Última edición por

                                    krampak, porque es un fake?

                                    1: El nombre de la aceleradora se coje de su BIOS o del Windows (que el windows lo coje de la BIOS)

                                    2: el mensaje ese a mi no me salepor mucho que modifique 😕

                                    3: si haces solo unos test veras que no te dice que lo has terminado precisamente porque no lo has terminado, solo has hecho una parte

                                    4: segun tus calculos a mi me daria 11413 y me da 10579, si dejo la calidad predeterminada me baja unos 1200 puntos y si hago el test completo me sube unos 300.

                                    no pienso decir que es falso, porque si es cierto que lleva 2 R300 y QDR puede ser perfectamente cierto, pero tampoco digo que sea real, es cierto que son numeros muy altos pero no seria la primera vez que un buen diseño hace milagros y nos sorprende 😄

                                    Aqui esta mi captura si lo quereis ver: http://perso.wanadoo.es/garroscomputers/3DMark.JPG

                                    Saludos

                                    1 Respuesta Última respuesta Responder Citar 0
                                    • DeZD
                                      DeZ
                                      Última edición por

                                      pues yo creo es esto es totalmente posible, pero necesitarian un "procesador" que dirigiera las operaciones a realizar por cada GPU… hoy en dia hay aquipos duales, y en barcelona tenemos un cluster de 64 procesadores... e incluso llegue a ver un cluster de 64 PCs duales... y por no mencionar la DDR de nVidia a 400Mhz que usa 2 "modulos" a 200Mhz y reparte los datos de tal manera que se muven al doble de velocidad, una de las cosas de las que estoy orgulloso de mi placa base, que tambien lo hace...
                                      Ademas alguien se ha puesto a provar su targeta con las opciones que ponen ahi? yo lo he hecho con mi GF3Ti500 de Creative sin OC ni nada por el estilo y voy rozando los 10000 puntillos...

                                      ahora, esto no quita que sea un fake...

                                      -Project: Test not run yet <-- eso lo pone al finalizar el test mientras miras la pantalla...

                                      -The benchmark was not run using default settings <-- eso estaba mas que claro, ya que solo ha dejado los test de fps...

                                      -Otro punto a tener en cuanta es que donde pone la VGA te detectara la que le pongas mientras windows la reconozca, por que que yo sepa no lee directamente de la targeta xDD

                                      la verdad, no se por que os escandalizais tanto, y como ya he dicho, no se si sera un fake, pero desde luego, yo no me fio hasta que no se anuncie publicamente, y de fuentes oficiales...

                                      1 Respuesta Última respuesta Responder Citar 0
                                      • cascamanC
                                        cascaman
                                        Última edición por

                                        ¿Y qué usa, Hiper-AGP-Pro2 a 24x?

                                        😄 😄 😄

                                        1 Respuesta Última respuesta Responder Citar 0
                                        • NOLDORN
                                          NOLDOR
                                          Última edición por

                                          el windows coje el nombre de la bios?de ke bios?pk yo asta aora si no le meto sus drivers, el winndows solo me dice adaptador de graficos estandar(PCI), eso si, con drivers te reconoce lo ke sea, y es de ahi de donde toma el nombre el 3dmark

                                          1 Respuesta Última respuesta Responder Citar 0
                                          • gandalf2001G
                                            gandalf2001
                                            Última edición por

                                            Estoy deacuerdo con noldor el nombre lo coje de los drivers, yo instale los omega-plutonium para ati y el windows me decia que tenia una ati7500omega-plutonium o algo así y el 3dmark también el nombre esta en los drivers…

                                            1 Respuesta Última respuesta Responder Citar 0
                                            • 1
                                            • 2
                                            • 3
                                            • 1 / 3
                                            • First post
                                              Last post

                                            Foreros conectados [Conectados hoy]

                                            2 usuarios activos (0 miembros e 2 invitados).
                                            febesin, pAtO, cobito

                                            Estadísticas de Hardlimit

                                            Los hardlimitianos han creado un total de 543.3k posts en 62.8k hilos.
                                            Somos un total de 34.7k miembros registrados.
                                            sridharpat ha sido nuestro último fichaje.