El Famoso Doom 3
-
Yo no he podido probar la versión final pero a la beta 2 (supongo que menos optimizada) jugué en un p4 fsb800 a 2.8 512 de ram y tanto con una radeon 9200 como con una gf4200 Ti no rulaba muy fino (más bien iba a patadas!) a 1024 y sin antialias. Supongo que para jugar olgadamente (1024x768) y con antialiasing mínimo se necesita una tarjeta de nueva generación la 6800 o la x800, con un buen equipo con una 9800 o 5900 también se jugará bien pero en algún momento casi seguro que se relentiza.
-
Yo me he pasado el juego (no me pregunteis como lo conseguí xD ) y con el equipo de la firma, sin OC alguno va bastante bieb
El timedemo1 ese, me hace una media de 42,5fps en 1024x768 HIGH QUALITY (con anisotropico 8x). y me he pasado todo el juego a 1024x768 HQUALITY
-
Pues io con el A64 a 2'4Ghz, la grafica sin oc (9600XT) y 256Mb de ram puedo jugar (ligerito excepto en escenas cargadas) a 1024 sin filtros y todo a medio detalle.
-
Pues yo juego con un Xp 2000 Ghz (210x9.5) 1 giga de ram Geil 433 y una radeon 9700 pro (360/600) y en 800x600 y calidad High, la cosa va bien, excepto algunos momentos en los que cae a unos 30 y algo se nota, generalmente se mueve entre 40 y60.
Decir que he cambiado recientemente la memoria desde 512 a 1 gb con dual channel activado, y decir que no se ha notado una subida tremenda de fps, aunque si en la carga de las fases… como es de esperar, ya que estoy bastante limitado por la cpu.Saludos
-
normalmente si tienes 1Gb en Ram el juego no te dara problemas de pegues me refiero a cargas durante el juego por ejemplo como cuando uno dispara por primera vez se queda pegado cargando…
-
UNA PREGUNTA: COMO HAGO PARA HACER UN TEST CON ESTE JUEGO COMO LEI POR AHI TIMEDEMO ALGO ASI..???
GRACIAS -
UNA PREGUNTA: COMO HAGO PARA HACER UN TEST CON ESTE JUEGO COMO LEI POR AHI TIMEDEMO ALGO ASI..???
GRACIASEn la consola:
TIMEDEMO DEMO1
Pasalo dos veces, que la primera (aun teniendo 1giga ram) rasca MUCHISIMO.
-
En la consola:
TIMEDEMO DEMO1
Pasalo dos veces, que la primera (aun teniendo 1giga ram) rasca MUCHISIMO.
Muchas Gracias voy a Intentarlo xD
-
Yo lo estoy jugando con un xp2400(ahora mismo de serie a 133x15) y con una fx5200(250@270 y 320@350) y 512mb pc3200,a una resolución de 800x600,calidad media,sin antialiasing ni anisotropicos y va sin tirones y fluído.
La calidad de los gráficos no está mal,dentro de lo que cabe claro xD
Saludos. -
Yo se lo instalé a un amigo con una ti4200 128Mb, P4 2,8Ghz, 1Gb DDR400 y se ve horrible, espantosamente diferente a una 9800pro. Será porque "sólo" es Dx8.1. Eso si, iva medianamente fluido a 1024 en calidad media.
Eso si, cargaba bastante más rápido que en un 2100+ con 512Mb ddr266 :muerto:
-
Generalmente las GF4 son DX8, lo que no entiendo es que supuestamente Doom3 es OpenGl… debiera correrlo bien no creen porque la potencia del GF4 es similar a la Ati Radeon 9700, y en la radeon si corre bien el d3 extraño no..?
-
Algo que me tiene dudoso es por que si el D3 es OpenGl.. porque requiere de DX9.b? que funcion hace el DX en el juego, será para trabajo de sonido????
Gracias
Saludes… :sisi: -
Algo que me tiene dudoso es por que si el D3 es OpenGl.. porque requiere de DX9.b? que funcion hace el DX en el juego, será para trabajo de sonido????
Gracias
Saludes… :sisi:El Direct3d no es OpenGL, o es una cosa o es la otra. El Doom3 corre con las últimas librerias OpenGL 1.5. Las G4 sólo soportan hasta la 1.4. Lo de la versión del Directx 9 es para el soporte de nuevas instrucciones y corrigen busgs pero nada más. Todo lo que tu tarjeta no soporte para Direct3d no lo usará simplemente y ya está.
Salu2.
-
Hice pruebas de Doom3 con el Timedemo demo1.
la maquina a utilizar es una AMD Atlhon Xp 2600+ @ 2133MHZ, 768MB Ram Kingstone 333MHZ, HD Seagate 120Gb Barracuda 7200RPM, TM.MSI KT6 DElTA LSR, TS: Sound Blaster Audigy Platinium EX. Ati Radeon 9800Pro 128MB y MSI Nvidia GFX5900 VTD128 128MB DDR ambos con -2.8Ns.
Sin AF,AA a 1024x768 Nvidia Fx5900 128MB
Ultra Quality = 29.1fps
High Quality = 33.9Fps
Medium Quality = 37.9Fps
Low Quality = 38.0FPSSin AF,AA a 1024x768 ATI Radeon 9800Pro 128Mb
Ultra Quality = 31.6Fps
High Quality = 39.3Fps
Medium Quality = 42.5Fps
Low Quality = 42.6FPStodo esto SIN modificaciones para la la ATI.
que es lo que opino yo de esto que la ATI aun le gana a Nvidia y eso que el juego esta optimizado para NV. ahora hay que ver con los ultimos modelos que son las 6800 y X800… ya ahi son otras palabras :risitas: pondria las pruebas pero no tengo las tarjetas, ni si quiera se han asomado en mi pais:rabieta:. Bueno ahi les dejo eso espero que les sirva para algo bye gracias
saludes -
Buenas,
yo dispongo de: kt400, xp 1800+ Tb A, 2x512MB ddr333MHz, 9600xt y juego a 640x480 mid quality con algun tiron de vez en cuando… tengo pendiente pasar a un barton 3000+ a FSB166MHz... espero q mejore xD
PD: Alguien q tenga una ati ha probado esto?
http://www.beyond3d.com/forum/viewtopic.php?t=14874&postdays=0&postorder=asc&start=0
Hasta pronto!
-
…y eso que el juego esta optimizado para NV. ahora hay que ver con los ultimos modelos que son las 6800 y X800...
He visto muchas discusiones sobre que esta mas optimizado para nVidia que para ATI en varios foros y eso no es cierto, de hecho el propio Carmack lo explico en un plan suyo alla por enero, hace ya un poquito
El juego tiene codigo especifico para varias aceleradoras, para que vaya lo mejor posibe en cada una de ellas, por ejemplo en las GF4 y no se que gama de ATI (creo que son las de Dx8) no se ven los efectos de distorsion de la imagen por el calor.
Pero la mayor diferencia de rendimiento es porque ATI no tiene extensiones OpenGL propias, con lo que usa las estandart ARB y nVidia si tiene de propias, con lo que usando las suyas obtiene mas rendimiento que si tambien usase las ARB. En cuanto a las nuevas, gana la 6800 porque tiene soporte PS3.0 que el Doom3 es capaz de usar(quien si no? :risitas:) y aunque es cierto que con los PS2.0 se hace lo mismo es mas lento que con los 3.0Yo creo que aqui han hecho lo correcto, o acaso no tienen que mejorar lo que puedan en nVidia solo porque ATI no haya hecho lo mismo?
Ademas el engine lo han pensado para 5 años, como el de Quake3(recuero que cuando salio la mayoria ni siquiera tenian aceleradora y se monto un pollo porque era obligatorio, y ya veis ahora), si ATI en este tiempo no pone PS3.0 y mejora el OpenGL… la verdad, mereceria quebrar, pero... es ATI, no van a quedarse paradosSi quereis unos test de las nuevas: http://www.anandtech.com/video/showdoc.aspx?i=2146&p=3
Pibe: en calida media se ve horrible con cualquier VGA xD
Prueba a poner high y luego en la carpeta base crea un archivo de texto llamado autoexec.cfg y pon dentro esto cambiando lo que esta comentado:seta com_allowConsole "1"
seta com_videoRam "128" // Mem de VGA
seta image_downSizeBumpLimit "512" // Mem de VGA*4
seta image_downSizeBump "1"
seta image_useCache "1"
seta image_cacheMegs "128" // 64 con 256Mb de RAM, 128 con 512MB, 256 con 1GB o mas
seta image_cacheMinK "10240"seta r_displayrefresh "85" // el refresco del monitor que quieras, y soporte claro
seta image_anisotropy "0"
seta g_showPlayerShadow "1"
yo tengo un Athlon64 3000+ con una Gf4 TI4400 y con esto puedo jugar en high a 800 mejor que antes a medium, aunque lo probe en un XP1700+ con una ATI9600XT y no mejoro nada, supongo que la vga con el 1700 funcionaba sobrada.
narcor, antes que un Barton 3000+ yo me pillaria un Athlon64 3000+, sera un poco mas caro, pero lo notaras bastante mas: http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2149&p=7
Saludos
-
No es por nada, KDT, pero me parece que no te has enterado de mucho… El código específico es para las gráficas antiguas, las r100, r200, nv10 y nv20. El otro codepath es el genérico, el arb2, y es el que usan todas las tarjetas a partir de las nv30 y las r300. Las gráficas de nvidia nv3x y nv4x utilizan las mismas extensiones opengl que ati, otra cosa es que los drivers estén mejor optimizados. Las extensiones propias no se usan, todavia, ya que la tecnología ultrashadow no está activada en la version retail del juego.
Sobre lo de que el doom3 utiliza los ps3.0, pues que quieres que te diga churras con merinas, tio. Es imposible que los utilicen, debido a que no están expuestos en los drivers para opengl. Además, hasta que el motor no funcione en openGL 2.0, el equivalente a DirectX 9.0C, no puede utilizar ps3.0...
La ventaja de nVidia es, principalmente, por tres aspectos:
1.- Mejores drivers openGL
2.- La posibilidad del modo 32x0 en las 6800
3.- La optimización del juego para tarjetas nVidiaEl punto principal es el 3º, no tienes nada más que ver el aumento de hasta un 40% en las tarjetas ATI al modificar una texture lookup table por una función MAT, con mismo resultado visual. Este "hack" se ha descubierto en una tarde, no creo que carmack no lo haya descubierto en 4 años. La pela es la pela, nVidia paga a activision y a ID, y quien no lo quiera ver, que sea feliz en la ignorancia.
-
kynes, si pones en la consola gfxInfo, te saldra esto:
GL_VENDOR: NVIDIA Corporation
GL_RENDERER: GeForce4 Ti 4400/AGP/SSE2/3DNOW!
GL_VERSION: 1.5.1
GL_EXTENSIONS: GL_ARB_depth_texture GL_ARB_imaging GL_ARB_multisample GL_ARB_m
ultitexture GL_ARB_occlusion_query GL_ARB_point_parameters GL_ARB_point_sprite
GL_ARB_shadow GL_ARB_shader_objects GL_ARB_shading_language_100 GL_ARB_textur
e_border_clamp GL_ARB_texture_compression GL_ARB_texture_cube_map GL_ARB_textu
re_env_add GL_ARB_texture_env_combine GL_ARB_texture_env_dot3 GL_ARB_texture_m
irrored_repeat GL_ARB_transpose_matrix GL_ARB_vertex_buffer_object GL_ARB_vert
ex_program GL_ARB_vertex_shader GL_ARB_window_pos GL_S3_s3tc GL_EXT_texture_en
v_add GL_EXT_abgr GL_EXT_bgra GL_EXT_blend_color GL_EXT_blend_minmax GL_EXT_bl
end_subtract GL_EXT_compiled_vertex_array GL_EXT_Cg_shader GL_EXT_draw_range_e
lements GL_EXT_fog_coord GL_EXT_multi_draw_arrays GL_EXT_packed_pixels GL_EXT_
paletted_texture GL_EXT_pixel_buffer_object GL_EXT_point_parameters GL_EXT_res
cale_normal GL_EXT_secondary_color GL_EXT_separate_specular_color GL_EXT_shado
w_funcs GL_EXT_shared_texture_palette GL_EXT_stencil_wrap GL_EXT_texture3D GL_
EXT_texture_compression_s3tc GL_EXT_texture_cube_map GL_EXT_texture_edge_clamp
GL_EXT_texture_env_combine GL_EXT_texture_env_dot3 GL_EXT_texture_filter_anis
otropic GL_EXT_texture_lod GL_EXT_texture_lod_bias GL_EXT_texture_object GL_EX
T_vertex_array GL_HP_occlusion_test GL_IBM_rasterpos_clip GL_IBM_texture_mirro
red_repeat GL_KTX_buffer_region GL_NV_blend_square GL_NV_copy_depth_to_color G
L_NV_depth_clamp GL_NV_fence GL_NV_fog_distance GL_NV_light_max_exponent GL_NV
multisample_filter_hint GL_NV_occlusion_query GL_NV_packed_depth_stencil GL_N
V_pixel_data_range GL_NV_point_sprite GL_NV_register_combiners GL_NV_register
combiners2 GL_NV_texgen_reflection GL_NV_texture_compression_vtc GL_NV_texture
_env_combine4 GL_NV_texture_rectangle GL_NV_texture_shader GL_NV_texture_shade
r2 GL_NV_texture_shader3 GL_NV_vertex_array_range GL_NV_vertex_array_range2 GL
_NV_vertex_program GL_NV_vertex_program1_1 GL_SGIS_generate_mipmap GL_SGIS_mul
titexture GL_SGIS_texture_lod GL_SGIX_depth_texture GL_SGIX_shadow GL_SUN_slic
e_accum GL_WIN_swap_hint WGL_EXT_swap_control
WGL_EXTENSIONS: WGL_ARB_buffer_region WGL_ARB_extensions_string WGL_ARB_make_c
urrent_read WGL_ARB_multisample WGL_ARB_pbuffer WGL_ARB_pixel_format WGL_ARB_r
ender_texture WGL_EXT_extensions_string WGL_EXT_swap_control WGL_NV_render_dep
th_texture WGL_NV_render_texture_rectangle
GL_MAX_TEXTURE_SIZE: 4096
GL_MAX_TEXTURE_UNITS_ARB: 4
GL_MAX_TEXTURE_COORDS_ARB: 0
GL_MAX_TEXTURE_IMAGE_UNITS_ARB: 0PIXELFORMAT: color(32-bits) Z(24-bit) stencil(8-bits)
MODE: 4, 800 x 600 fullscreen hz:N/A
CPU: AMD CPU with MMX & 3DNow! & SSE & SSE2
ARB path ENABLED
NV10 path ENABLED
NV20 path ENABLED (ACTIVE)
R200 path disabled
ARB2 path disabled
Exp path disabled
Cg path disabled
–-----
glFinish not forced
Forcing swapInterval 1
Two sided stencil not available
Vertex cache is fastsi te fijas bien veras que en las extensiones hay de GL_ARB_loquesea que son las estandart, y luego hay otras que pone GL_NV_loquesea, esas que pone NV son las propias de NVidia, mas abajo pone:
ARB path ENABLED
NV10 path ENABLED
NV20 path ENABLED (ACTIVE)
R200 path disabled
ARB2 path disabled
Exp path disabled
Cg path disabledo lo que es lo mismo, que estan activas las extensiones para NV20 ya que tengo una Gf4, en una Ati9600XT:
ARB path ENABLED
NV10 path disabled
NV20 path disabled
R200 path ENABLED
ARB2 path ENABLED (ACTIVE)
Exp path ENABLED
Cg path disabledcomo puedes ver activa extensiones dependiendo de la VGA ya que la ATI NO puede usar las de nVidia, sencillamente porque no las tiene.
En cuanto a lo de los PS3.0 te daria la razon si hablasemos de Dx ya que en Dx si no esta algo en las librerias tienes que joderte, pero en OpenGL las cosas cambian, ya que si no hay algo y no te da pereza, puedes programarlo tu mismo, o crees que las luces dinamicas (por ejemplo) utiliza las de OpenGL?
y si el OGL2 es el equivalente a Dx9 no se que haran cuando lo usen, porque aun no he visto nada como el Doom3 en Dx9, que use luces dinamicas al 100%, nada de precalculadas, que varias interfieran al mismo tiempo en cualquier objeto iluminando solo la parte que toca y con sombras para cada una, amen del normal mapping en todas las texturas..., todo lo de dx9, que se ha visto de momento, son muchas texturas planas con luces precalculadas (no se si has puesto el light editor, pero puedes cambiar la luz que quieras)En lo del aumento de rendimiento del 40% en ati que me lo enseñen, en una 9600XT mejoro poco mas de un 10% y si por poner eso una nvidia va a perder mas pues creo que hizo lo correcto.
Y no creo que haciendo cosas distintas, que supuestamente mejora tanto, no cambie nada la calidad, otra cosa es que la gente lo note, por ejemplo Carmack hace años que pide 64bits de color en las VGA porque en 32bits pierde calidad, solo se ve en segun que degradados y tienes que fijarte mucho, pero la pierde.
No se puede hacer perfecto al 100% para todas las tarjetas y no puedes poner algo para mejorar una si otra va a empeorar aun mas, o si pierdes calidad y no quieres bajar de ahi, en la mia a 800*600 en high puedo pasar de 13.5fps a 28.4fps, mas de un 100% de mejora poniendo el image_antisotropy a 0 i casi no se nota visualmente, tienes que fijarte mucho, pero mucho, para verlo, solo por eso ya tengo que decir que no esta optimizado para una Gf4 TI4400? y es un 100% de mejora, no un 40%...
el com_videoRam esta por defecto a 64Mb y tiene que estar a la cantidad de ram de la VGA, por eso ya tengo que decir que solo esta optimizado para VGA de 64Mb?
el image_cacheMegs esta por defecto a 20Mb y va mejor estando a 1/4 de la RAM que tengas, por eso ya tengo que decir que solo esta optimizado para 80Mb de ram?
vamos hombre las cosas no son tan sencillas, ni a Id ni a nunguna compañia le interesa perder clientes para no optimizar para alguien, te recuerdo que Id hace un juego para enseñar su engine a otras compañias, si no optimizasen para ATI aparte de perder los compradores del juego con ATI perderian la venta del engine a otras compañias, que por cierto no es nada barato, por ponerte un ejemplo los de Quake y Quake2, ya antiguos, cuestan 10.000$ y del Quake3 hay cifras de 250.000$ y no venden uno o dos, crees que van a arriesgarse a perder eso por "no optimizar"?. Aqui estan los precios: http://www.idsoftware.com/business/technology/techlicense.phpSi quieres ver lo que dijo Carmack de las extensiones esta aqui: http://www.webdog.org/cgi-bin/finger.plm?id=1&time=20030130011231
Siento la parrafada
Saludos
-
Entonces me estás dando la razón, el path ARB2, el genérico para nv3x, nv4x, r3xx y r4xx no lo tienes activado, por eso usas las extensiones nv.
Las gf6800 usan el path arb2, con lo que no pueden usar extensiones propias, y como no usan extensiones propias, no pueden usar los ps3.0 ya que no hay instrucciones en opengl1.5 para usarlos.
A ver, los mapas normales están en directx desde la versión 7, otra cosa es que no se utilizasen. Las luces dinámicas… no las calcula la tarjeta gráfica, las calcula la cpu. Como dice el propio carmack "CPU skinning, shadow generation, and tangent space reconstruction are the parts of Doom that take up significant time in timedemos, but there is a lot of driver overhead as well." http://www.beyond3d.com/interviews/carmack04/
La generación de sombras se realiza mediante la CPU, no la GPU. No tiene nada que ver con la versión de ps que use la tarjeta. Por ese mismo razonamiento tuyo, las geforce4mx no podrían correr el juego, y me parece que es el requisito mínimo.En mi 9800 pasa el timedemo de 32 a 42 fps en 1024x768 2xAA 16xAF, lo que es un 31'5%. Que quieres que te diga, si puedo evitar el trashing de las texturas, pues mejor, ¿no crees? Y solo es una línea, no creo que le costara mucho usar una rutina de detección de la id de la tarjeta para usar una instrucción u otra. Y que no me digan que es para evitar más renderpaths, ya que hay 4 a parte del arb2. "The Humus/Demirug fix and the lookup table are not equivalent. The fix is arguably more correct than the tex lookup, but id kept the tex loopup in the ARB2 path to maintain equivalence with the other renderpaths."
http://www.beyond3d.com/forum/viewtopic.php?p=345234#345234Piensa lo que quieras, si te hace feliz, pues todo el mundo es bueno, pero esto es un negocio y nueve millones de dólares no son moco de pavo. ¿Acaso crees que Valve no va a optimizar más para ATI el Half Life 2?
PD: Si quieres saber lo que es openGL 2.0, lee un poquito:
http://www.beyond3d.com/forum/viewtopic.php?t=14987
Titular: OpenGL 2.0 Unleashes the Power of Programmable ShadersPD2: nVidia está realizando shader replacement en sus drivers, quizás eso le da un poco de ventaja, ¿no crees?:
http://www.beyond3d.com/forum/viewtopic.php?p=345132#345132
http://www.beyond3d.com/forum/viewtopic.php?p=345187#345187 -
Una cuestión muy básica, cargo el doom3 y todo va como la seda, hasta que pasa algo interesante, pues por ejemplo te escanean o te giras deprisa para ver algo, o se jode el experimento y empiezan a salir demonios y….. Zas!, patadita en el culo del Hyper y el doom me saca al escritorio. Un detalle, cada vez que me muevo, suena un chasquidito cadencioso por los altavoces, por cierto, el mismo chasquidito que cuando aparece, me termina bloqueando una de cada 20 partidas de warcraft. Tengo drivers de hercules y las Direct X actualizados. Es la tarjeta, o su configuración, lo sé, pero... por donde empiezo?
Asias.-