• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse

    El Famoso Doom 3

    Programado Fijo Cerrado Movido
    Tarjetas Gráficas
    21
    58
    6.0k
    Cargando más mensajes
    • Más antiguo a más nuevo
    • Más nuevo a más antiguo
    • Mayor número de Votos
    Responder
    • Responder como tema
    Accede para responder
    Este tema ha sido borrado. Solo los usuarios que tengan privilegios de administración de temas pueden verlo.
    • raulazariasR
      raulazarias @SpaceRay
      Última edición por

      Mi maquina tiene un procesador AMD athlon Xp 2800+ con 512MB DDR y la Radeon 9800 pro 128MB el juego corre muy bien poniendole calidad media y en 1024*768 y si lo pongo en alta calidad y en 1024… el juego hace pocas pegas de carga entonces le agregue 256Mb mas de memoria teniendo 768Ram y el juego corre muy bien a esa calidad ya en la opcion Ultra alta calidad ni hablar se satura el ram supuestamente es para 512Mb de Video... loo extraño es que le pusimos la memoria de un vecino 1Gb + los 512 que yo tengo y no dio ninun trabo solo que en ciertas paartes se veia lentillo le calculo unos 12 o 5Fps. al final lo juego en calidad media y en 1024... ya que no es mucha la diferencia con respecto al grafico y corre sin problemas.. Amigos les recomiendo el juego esta muuy bueno :sisi: 😉 valio la pena esperar tanto tiempo :frio:

      CaEsArC 1 Respuesta Última respuesta Responder Citar 0
      • CaEsArC
        CaEsAr @raulazarias
        Última edición por

        Yo no he podido probar la versión final pero a la beta 2 (supongo que menos optimizada) jugué en un p4 fsb800 a 2.8 512 de ram y tanto con una radeon 9200 como con una gf4200 Ti no rulaba muy fino (más bien iba a patadas!) a 1024 y sin antialias. Supongo que para jugar olgadamente (1024x768) y con antialiasing mínimo se necesita una tarjeta de nueva generación la 6800 o la x800, con un buen equipo con una 9800 o 5900 también se jugará bien pero en algún momento casi seguro que se relentiza.

        HitMakerH 1 Respuesta Última respuesta Responder Citar 0
        • HitMakerH
          HitMaker @CaEsAr
          Última edición por

          Yo me he pasado el juego (no me pregunteis como lo conseguí xD ) y con el equipo de la firma, sin OC alguno va bastante bieb

          El timedemo1 ese, me hace una media de 42,5fps en 1024x768 HIGH QUALITY (con anisotropico 8x). y me he pasado todo el juego a 1024x768 HQUALITY

          krampakK 1 Respuesta Última respuesta Responder Citar 0
          • krampakK
            krampak Global Moderator @HitMaker
            Última edición por

            Pues io con el A64 a 2'4Ghz, la grafica sin oc (9600XT) y 256Mb de ram puedo jugar (ligerito excepto en escenas cargadas) a 1024 sin filtros y todo a medio detalle.

            Mi Configuración
            hlbm signature

            kokomenK 1 Respuesta Última respuesta Responder Citar 0
            • kokomenK
              kokomen @krampak
              Última edición por

              Pues yo juego con un Xp 2000 Ghz (210x9.5) 1 giga de ram Geil 433 y una radeon 9700 pro (360/600) y en 800x600 y calidad High, la cosa va bien, excepto algunos momentos en los que cae a unos 30 y algo se nota, generalmente se mueve entre 40 y60.
              Decir que he cambiado recientemente la memoria desde 512 a 1 gb con dual channel activado, y decir que no se ha notado una subida tremenda de fps, aunque si en la carga de las fases… como es de esperar, ya que estoy bastante limitado por la cpu.

              Saludos

              raulazariasR 1 Respuesta Última respuesta Responder Citar 0
              • raulazariasR
                raulazarias @kokomen
                Última edición por

                normalmente si tienes 1Gb en Ram el juego no te dara problemas de pegues me refiero a cargas durante el juego por ejemplo como cuando uno dispara por primera vez se queda pegado cargando…

                1 Respuesta Última respuesta Responder Citar 0
                • raulazariasR
                  raulazarias
                  Última edición por

                  UNA PREGUNTA: 😕 COMO HAGO PARA HACER UN TEST CON ESTE JUEGO COMO LEI POR AHI TIMEDEMO ALGO ASI..???
                  GRACIAS

                  HitMakerH 1 Respuesta Última respuesta Responder Citar 0
                  • HitMakerH
                    HitMaker @raulazarias
                    Última edición por

                    @raulazarias:

                    UNA PREGUNTA: 😕 COMO HAGO PARA HACER UN TEST CON ESTE JUEGO COMO LEI POR AHI TIMEDEMO ALGO ASI..???
                    GRACIAS

                    En la consola:

                    TIMEDEMO DEMO1

                    Pasalo dos veces, que la primera (aun teniendo 1giga ram) rasca MUCHISIMO.

                    raulazariasR 1 Respuesta Última respuesta Responder Citar 0
                    • raulazariasR
                      raulazarias @HitMaker
                      Última edición por

                      @HitMaker:

                      En la consola:

                      TIMEDEMO DEMO1

                      Pasalo dos veces, que la primera (aun teniendo 1giga ram) rasca MUCHISIMO.

                      Muchas Gracias voy a Intentarlo xD

                      GaiteiroG 1 Respuesta Última respuesta Responder Citar 0
                      • GaiteiroG
                        Gaiteiro Veteranos HL @raulazarias
                        Última edición por

                        Yo lo estoy jugando con un xp2400(ahora mismo de serie a 133x15) y con una fx5200(250@270 y 320@350) y 512mb pc3200,a una resolución de 800x600,calidad media,sin antialiasing ni anisotropicos y va sin tirones y fluído.
                        La calidad de los gráficos no está mal,dentro de lo que cabe claro xD
                        Saludos.

                        PibeP 1 Respuesta Última respuesta Responder Citar 0
                        • PibeP
                          Pibe @Gaiteiro
                          Última edición por

                          Yo se lo instalé a un amigo con una ti4200 128Mb, P4 2,8Ghz, 1Gb DDR400 y se ve horrible, espantosamente diferente a una 9800pro. Será porque "sólo" es Dx8.1. Eso si, iva medianamente fluido a 1024 en calidad media.

                          Eso si, cargaba bastante más rápido que en un 2100+ con 512Mb ddr266 :muerto:

                          raulazariasR 1 Respuesta Última respuesta Responder Citar 0
                          • raulazariasR
                            raulazarias @Pibe
                            Última edición por

                            Generalmente las GF4 son DX8, lo que no entiendo es que supuestamente Doom3 es OpenGl… debiera correrlo bien no creen porque la potencia del GF4 es similar a la Ati Radeon 9700, y en la radeon si corre bien el d3 extraño no..?

                            raulazariasR 1 Respuesta Última respuesta Responder Citar 0
                            • raulazariasR
                              raulazarias @raulazarias
                              Última edición por

                              Algo que me tiene dudoso es por que si el D3 es OpenGl.. porque requiere de DX9.b? que funcion hace el DX en el juego, será para trabajo de sonido???? 😕
                              Gracias
                              Saludes… :sisi:

                              Ch0laC 1 Respuesta Última respuesta Responder Citar 0
                              • Ch0laC
                                Ch0la @raulazarias
                                Última edición por

                                @raulazarias:

                                Algo que me tiene dudoso es por que si el D3 es OpenGl.. porque requiere de DX9.b? que funcion hace el DX en el juego, será para trabajo de sonido???? 😕
                                Gracias
                                Saludes… :sisi:

                                El Direct3d no es OpenGL, o es una cosa o es la otra. El Doom3 corre con las últimas librerias OpenGL 1.5. Las G4 sólo soportan hasta la 1.4. Lo de la versión del Directx 9 es para el soporte de nuevas instrucciones y corrigen busgs pero nada más. Todo lo que tu tarjeta no soporte para Direct3d no lo usará simplemente y ya está.

                                Salu2.

                                raulazariasR 1 Respuesta Última respuesta Responder Citar 0
                                • raulazariasR
                                  raulazarias @Ch0la
                                  Última edición por

                                  Hice pruebas de Doom3 con el Timedemo demo1.

                                  la maquina a utilizar es una AMD Atlhon Xp 2600+ @ 2133MHZ, 768MB Ram Kingstone 333MHZ, HD Seagate 120Gb Barracuda 7200RPM, TM.MSI KT6 DElTA LSR, TS: Sound Blaster Audigy Platinium EX. Ati Radeon 9800Pro 128MB y MSI Nvidia GFX5900 VTD128 128MB DDR ambos con -2.8Ns.

                                  Sin AF,AA a 1024x768 Nvidia Fx5900 128MB

                                  Ultra Quality = 29.1fps
                                  High Quality = 33.9Fps
                                  Medium Quality = 37.9Fps
                                  Low Quality = 38.0FPS

                                  Sin AF,AA a 1024x768 ATI Radeon 9800Pro 128Mb

                                  Ultra Quality = 31.6Fps
                                  High Quality = 39.3Fps
                                  Medium Quality = 42.5Fps
                                  Low Quality = 42.6FPS

                                  todo esto SIN modificaciones para la la ATI.
                                  que es lo que opino yo de esto que la ATI aun le gana a Nvidia y eso que el juego esta optimizado para NV. ahora hay que ver con los ultimos modelos que son las 6800 y X800… ya ahi son otras palabras :risitas: pondria las pruebas pero no tengo las tarjetas, ni si quiera se han asomado en mi pais:rabieta:. Bueno ahi les dejo eso espero que les sirva para algo bye gracias
                                  saludes

                                  N K 2 Respuestas Última respuesta Responder Citar 0
                                  • N
                                    narcor @raulazarias
                                    Última edición por

                                    Buenas,

                                    yo dispongo de: kt400, xp 1800+ Tb A, 2x512MB ddr333MHz, 9600xt y juego a 640x480 mid quality con algun tiron de vez en cuando… tengo pendiente pasar a un barton 3000+ a FSB166MHz... espero q mejore xD

                                    PD: Alguien q tenga una ati ha probado esto?

                                    http://www.beyond3d.com/forum/viewtopic.php?t=14874&postdays=0&postorder=asc&start=0

                                    Hasta pronto!

                                    1 Respuesta Última respuesta Responder Citar 0
                                    • K
                                      KDT @raulazarias
                                      Última edición por

                                      @raulazarias:

                                      …y eso que el juego esta optimizado para NV. ahora hay que ver con los ultimos modelos que son las 6800 y X800...

                                      He visto muchas discusiones sobre que esta mas optimizado para nVidia que para ATI en varios foros y eso no es cierto, de hecho el propio Carmack lo explico en un plan suyo alla por enero, hace ya un poquito 😛
                                      El juego tiene codigo especifico para varias aceleradoras, para que vaya lo mejor posibe en cada una de ellas, por ejemplo en las GF4 y no se que gama de ATI (creo que son las de Dx8) no se ven los efectos de distorsion de la imagen por el calor.
                                      Pero la mayor diferencia de rendimiento es porque ATI no tiene extensiones OpenGL propias, con lo que usa las estandart ARB y nVidia si tiene de propias, con lo que usando las suyas obtiene mas rendimiento que si tambien usase las ARB. En cuanto a las nuevas, gana la 6800 porque tiene soporte PS3.0 que el Doom3 es capaz de usar(quien si no? :risitas:) y aunque es cierto que con los PS2.0 se hace lo mismo es mas lento que con los 3.0

                                      Yo creo que aqui han hecho lo correcto, o acaso no tienen que mejorar lo que puedan en nVidia solo porque ATI no haya hecho lo mismo?
                                      Ademas el engine lo han pensado para 5 años, como el de Quake3(recuero que cuando salio la mayoria ni siquiera tenian aceleradora y se monto un pollo porque era obligatorio, y ya veis ahora), si ATI en este tiempo no pone PS3.0 y mejora el OpenGL… la verdad, mereceria quebrar, pero... es ATI, no van a quedarse parados 😉

                                      Si quereis unos test de las nuevas: http://www.anandtech.com/video/showdoc.aspx?i=2146&p=3

                                      Pibe: en calida media se ve horrible con cualquier VGA xD
                                      Prueba a poner high y luego en la carpeta base crea un archivo de texto llamado autoexec.cfg y pon dentro esto cambiando lo que esta comentado:

                                      seta com_allowConsole "1"

                                      seta com_videoRam "128" // Mem de VGA
                                      seta image_downSizeBumpLimit "512" // Mem de VGA*4
                                      seta image_downSizeBump "1"
                                      seta image_useCache "1"
                                      seta image_cacheMegs "128" // 64 con 256Mb de RAM, 128 con 512MB, 256 con 1GB o mas
                                      seta image_cacheMinK "10240"

                                      seta r_displayrefresh "85" // el refresco del monitor que quieras, y soporte claro

                                      seta image_anisotropy "0"

                                      seta g_showPlayerShadow "1"

                                      yo tengo un Athlon64 3000+ con una Gf4 TI4400 y con esto puedo jugar en high a 800 mejor que antes a medium, aunque lo probe en un XP1700+ con una ATI9600XT y no mejoro nada, supongo que la vga con el 1700 funcionaba sobrada.

                                      narcor, antes que un Barton 3000+ yo me pillaria un Athlon64 3000+, sera un poco mas caro, pero lo notaras bastante mas: http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2149&p=7

                                      Saludos

                                      kynesK 1 Respuesta Última respuesta Responder Citar 0
                                      • kynesK
                                        kynes Veteranos HL @KDT
                                        Última edición por

                                        No es por nada, KDT, pero me parece que no te has enterado de mucho… El código específico es para las gráficas antiguas, las r100, r200, nv10 y nv20. El otro codepath es el genérico, el arb2, y es el que usan todas las tarjetas a partir de las nv30 y las r300. Las gráficas de nvidia nv3x y nv4x utilizan las mismas extensiones opengl que ati, otra cosa es que los drivers estén mejor optimizados. Las extensiones propias no se usan, todavia, ya que la tecnología ultrashadow no está activada en la version retail del juego.

                                        Sobre lo de que el doom3 utiliza los ps3.0, pues que quieres que te diga 😄 churras con merinas, tio. Es imposible que los utilicen, debido a que no están expuestos en los drivers para opengl. Además, hasta que el motor no funcione en openGL 2.0, el equivalente a DirectX 9.0C, no puede utilizar ps3.0...

                                        La ventaja de nVidia es, principalmente, por tres aspectos:
                                        1.- Mejores drivers openGL
                                        2.- La posibilidad del modo 32x0 en las 6800
                                        3.- La optimización del juego para tarjetas nVidia

                                        El punto principal es el 3º, no tienes nada más que ver el aumento de hasta un 40% en las tarjetas ATI al modificar una texture lookup table por una función MAT, con mismo resultado visual. Este "hack" se ha descubierto en una tarde, no creo que carmack no lo haya descubierto en 4 años. La pela es la pela, nVidia paga a activision y a ID, y quien no lo quiera ver, que sea feliz en la ignorancia.

                                        hlbm signature

                                        K 1 Respuesta Última respuesta Responder Citar 0
                                        • K
                                          KDT @kynes
                                          Última edición por

                                          kynes, si pones en la consola gfxInfo, te saldra esto:

                                          GL_VENDOR: NVIDIA Corporation
                                          GL_RENDERER: GeForce4 Ti 4400/AGP/SSE2/3DNOW!
                                          GL_VERSION: 1.5.1
                                          GL_EXTENSIONS: GL_ARB_depth_texture GL_ARB_imaging GL_ARB_multisample GL_ARB_m
                                          ultitexture GL_ARB_occlusion_query GL_ARB_point_parameters GL_ARB_point_sprite
                                          GL_ARB_shadow GL_ARB_shader_objects GL_ARB_shading_language_100 GL_ARB_textur
                                          e_border_clamp GL_ARB_texture_compression GL_ARB_texture_cube_map GL_ARB_textu
                                          re_env_add GL_ARB_texture_env_combine GL_ARB_texture_env_dot3 GL_ARB_texture_m
                                          irrored_repeat GL_ARB_transpose_matrix GL_ARB_vertex_buffer_object GL_ARB_vert
                                          ex_program GL_ARB_vertex_shader GL_ARB_window_pos GL_S3_s3tc GL_EXT_texture_en
                                          v_add GL_EXT_abgr GL_EXT_bgra GL_EXT_blend_color GL_EXT_blend_minmax GL_EXT_bl
                                          end_subtract GL_EXT_compiled_vertex_array GL_EXT_Cg_shader GL_EXT_draw_range_e
                                          lements GL_EXT_fog_coord GL_EXT_multi_draw_arrays GL_EXT_packed_pixels GL_EXT_
                                          paletted_texture GL_EXT_pixel_buffer_object GL_EXT_point_parameters GL_EXT_res
                                          cale_normal GL_EXT_secondary_color GL_EXT_separate_specular_color GL_EXT_shado
                                          w_funcs GL_EXT_shared_texture_palette GL_EXT_stencil_wrap GL_EXT_texture3D GL_
                                          EXT_texture_compression_s3tc GL_EXT_texture_cube_map GL_EXT_texture_edge_clamp
                                          GL_EXT_texture_env_combine GL_EXT_texture_env_dot3 GL_EXT_texture_filter_anis
                                          otropic GL_EXT_texture_lod GL_EXT_texture_lod_bias GL_EXT_texture_object GL_EX
                                          T_vertex_array GL_HP_occlusion_test GL_IBM_rasterpos_clip GL_IBM_texture_mirro
                                          red_repeat GL_KTX_buffer_region GL_NV_blend_square GL_NV_copy_depth_to_color G
                                          L_NV_depth_clamp GL_NV_fence GL_NV_fog_distance GL_NV_light_max_exponent GL_NV
                                          multisample_filter_hint GL_NV_occlusion_query GL_NV_packed_depth_stencil GL_N
                                          V_pixel_data_range GL_NV_point_sprite GL_NV_register_combiners GL_NV_register

                                          combiners2 GL_NV_texgen_reflection GL_NV_texture_compression_vtc GL_NV_texture
                                          _env_combine4 GL_NV_texture_rectangle GL_NV_texture_shader GL_NV_texture_shade
                                          r2 GL_NV_texture_shader3 GL_NV_vertex_array_range GL_NV_vertex_array_range2 GL
                                          _NV_vertex_program GL_NV_vertex_program1_1 GL_SGIS_generate_mipmap GL_SGIS_mul
                                          titexture GL_SGIS_texture_lod GL_SGIX_depth_texture GL_SGIX_shadow GL_SUN_slic
                                          e_accum GL_WIN_swap_hint WGL_EXT_swap_control
                                          WGL_EXTENSIONS: WGL_ARB_buffer_region WGL_ARB_extensions_string WGL_ARB_make_c
                                          urrent_read WGL_ARB_multisample WGL_ARB_pbuffer WGL_ARB_pixel_format WGL_ARB_r
                                          ender_texture WGL_EXT_extensions_string WGL_EXT_swap_control WGL_NV_render_dep
                                          th_texture WGL_NV_render_texture_rectangle
                                          GL_MAX_TEXTURE_SIZE: 4096
                                          GL_MAX_TEXTURE_UNITS_ARB: 4
                                          GL_MAX_TEXTURE_COORDS_ARB: 0
                                          GL_MAX_TEXTURE_IMAGE_UNITS_ARB: 0

                                          PIXELFORMAT: color(32-bits) Z(24-bit) stencil(8-bits)
                                          MODE: 4, 800 x 600 fullscreen hz:N/A
                                          CPU: AMD CPU with MMX & 3DNow! & SSE & SSE2
                                          ARB path ENABLED
                                          NV10 path ENABLED
                                          NV20 path ENABLED (ACTIVE)
                                          R200 path disabled
                                          ARB2 path disabled
                                          Exp path disabled
                                          Cg path disabled
                                          –-----
                                          glFinish not forced
                                          Forcing swapInterval 1
                                          Two sided stencil not available
                                          Vertex cache is fast

                                          si te fijas bien veras que en las extensiones hay de GL_ARB_loquesea que son las estandart, y luego hay otras que pone GL_NV_loquesea, esas que pone NV son las propias de NVidia, mas abajo pone:

                                          ARB path ENABLED
                                          NV10 path ENABLED
                                          NV20 path ENABLED (ACTIVE)
                                          R200 path disabled
                                          ARB2 path disabled
                                          Exp path disabled
                                          Cg path disabled

                                          o lo que es lo mismo, que estan activas las extensiones para NV20 ya que tengo una Gf4, en una Ati9600XT:

                                          ARB path ENABLED
                                          NV10 path disabled
                                          NV20 path disabled
                                          R200 path ENABLED
                                          ARB2 path ENABLED (ACTIVE)
                                          Exp path ENABLED
                                          Cg path disabled

                                          como puedes ver activa extensiones dependiendo de la VGA ya que la ATI NO puede usar las de nVidia, sencillamente porque no las tiene.

                                          En cuanto a lo de los PS3.0 te daria la razon si hablasemos de Dx ya que en Dx si no esta algo en las librerias tienes que joderte, pero en OpenGL las cosas cambian, ya que si no hay algo y no te da pereza, puedes programarlo tu mismo, o crees que las luces dinamicas (por ejemplo) utiliza las de OpenGL?
                                          y si el OGL2 es el equivalente a Dx9 no se que haran cuando lo usen, porque aun no he visto nada como el Doom3 en Dx9, que use luces dinamicas al 100%, nada de precalculadas, que varias interfieran al mismo tiempo en cualquier objeto iluminando solo la parte que toca y con sombras para cada una, amen del normal mapping en todas las texturas..., todo lo de dx9, que se ha visto de momento, son muchas texturas planas con luces precalculadas (no se si has puesto el light editor, pero puedes cambiar la luz que quieras)

                                          En lo del aumento de rendimiento del 40% en ati que me lo enseñen, en una 9600XT mejoro poco mas de un 10% y si por poner eso una nvidia va a perder mas pues creo que hizo lo correcto.

                                          Y no creo que haciendo cosas distintas, que supuestamente mejora tanto, no cambie nada la calidad, otra cosa es que la gente lo note, por ejemplo Carmack hace años que pide 64bits de color en las VGA porque en 32bits pierde calidad, solo se ve en segun que degradados y tienes que fijarte mucho, pero la pierde.

                                          No se puede hacer perfecto al 100% para todas las tarjetas y no puedes poner algo para mejorar una si otra va a empeorar aun mas, o si pierdes calidad y no quieres bajar de ahi, en la mia a 800*600 en high puedo pasar de 13.5fps a 28.4fps, mas de un 100% de mejora poniendo el image_antisotropy a 0 i casi no se nota visualmente, tienes que fijarte mucho, pero mucho, para verlo, solo por eso ya tengo que decir que no esta optimizado para una Gf4 TI4400? y es un 100% de mejora, no un 40%...
                                          el com_videoRam esta por defecto a 64Mb y tiene que estar a la cantidad de ram de la VGA, por eso ya tengo que decir que solo esta optimizado para VGA de 64Mb?
                                          el image_cacheMegs esta por defecto a 20Mb y va mejor estando a 1/4 de la RAM que tengas, por eso ya tengo que decir que solo esta optimizado para 80Mb de ram?
                                          vamos hombre las cosas no son tan sencillas, ni a Id ni a nunguna compañia le interesa perder clientes para no optimizar para alguien, te recuerdo que Id hace un juego para enseñar su engine a otras compañias, si no optimizasen para ATI aparte de perder los compradores del juego con ATI perderian la venta del engine a otras compañias, que por cierto no es nada barato, por ponerte un ejemplo los de Quake y Quake2, ya antiguos, cuestan 10.000$ y del Quake3 hay cifras de 250.000$ y no venden uno o dos, crees que van a arriesgarse a perder eso por "no optimizar"?. Aqui estan los precios: http://www.idsoftware.com/business/technology/techlicense.php

                                          Si quieres ver lo que dijo Carmack de las extensiones esta aqui: http://www.webdog.org/cgi-bin/finger.plm?id=1&time=20030130011231

                                          Siento la parrafada 😛

                                          Saludos

                                          kynesK 1 Respuesta Última respuesta Responder Citar 0
                                          • kynesK
                                            kynes Veteranos HL @KDT
                                            Última edición por

                                            Entonces me estás dando la razón, el path ARB2, el genérico para nv3x, nv4x, r3xx y r4xx no lo tienes activado, por eso usas las extensiones nv.

                                            Las gf6800 usan el path arb2, con lo que no pueden usar extensiones propias, y como no usan extensiones propias, no pueden usar los ps3.0 ya que no hay instrucciones en opengl1.5 para usarlos.

                                            A ver, los mapas normales están en directx desde la versión 7, otra cosa es que no se utilizasen. Las luces dinámicas… no las calcula la tarjeta gráfica, las calcula la cpu. Como dice el propio carmack "CPU skinning, shadow generation, and tangent space reconstruction are the parts of Doom that take up significant time in timedemos, but there is a lot of driver overhead as well." http://www.beyond3d.com/interviews/carmack04/
                                            La generación de sombras se realiza mediante la CPU, no la GPU. No tiene nada que ver con la versión de ps que use la tarjeta. Por ese mismo razonamiento tuyo, las geforce4mx no podrían correr el juego, y me parece que es el requisito mínimo.

                                            En mi 9800 pasa el timedemo de 32 a 42 fps en 1024x768 2xAA 16xAF, lo que es un 31'5%. Que quieres que te diga, si puedo evitar el trashing de las texturas, pues mejor, ¿no crees? Y solo es una línea, no creo que le costara mucho usar una rutina de detección de la id de la tarjeta para usar una instrucción u otra. Y que no me digan que es para evitar más renderpaths, ya que hay 4 a parte del arb2. "The Humus/Demirug fix and the lookup table are not equivalent. The fix is arguably more correct than the tex lookup, but id kept the tex loopup in the ARB2 path to maintain equivalence with the other renderpaths."
                                            http://www.beyond3d.com/forum/viewtopic.php?p=345234#345234

                                            Piensa lo que quieras, si te hace feliz, pues todo el mundo es bueno, pero esto es un negocio y nueve millones de dólares no son moco de pavo. ¿Acaso crees que Valve no va a optimizar más para ATI el Half Life 2?

                                            PD: Si quieres saber lo que es openGL 2.0, lee un poquito:
                                            http://www.beyond3d.com/forum/viewtopic.php?t=14987
                                            Titular: OpenGL 2.0 Unleashes the Power of Programmable Shaders

                                            PD2: nVidia está realizando shader replacement en sus drivers, quizás eso le da un poco de ventaja, ¿no crees?:
                                            http://www.beyond3d.com/forum/viewtopic.php?p=345132#345132
                                            http://www.beyond3d.com/forum/viewtopic.php?p=345187#345187

                                            hlbm signature

                                            hyperH 1 Respuesta Última respuesta Responder Citar 0
                                            • 1
                                            • 2
                                            • 3
                                            • 1 / 3
                                            • First post
                                              Last post

                                            Foreros conectados [Conectados hoy]

                                            1 usuarios activos (0 miembros e 1 invitados).
                                            febesin, pAtO,

                                            Estadísticas de Hardlimit

                                            Los hardlimitianos han creado un total de 543.3k posts en 62.8k hilos.
                                            Somos un total de 34.8k miembros registrados.
                                            seaofink ha sido nuestro último fichaje.