Para que tantos fps?
-
Actualmente el las comparativas de las graficas se ven pruebas un las que las los resultados andan por 150, 200, 250 fps y yo tengo una duda
Realmente sirven para algo tantos??
Para que el ojo no note 'saltos en la imagen', las imagenes tienen que pasar a mas de 25-30 fps, pero, que pasa con el refresco del monitor, es decir, si yo tengo el monitor a 60 Hz, significa que la imagen se actualiza 60 veces por segundo, no? entonces para que sirve que la tarjeta de 150fps si el monitor solo puede representar 60 de esas 150 imagenes, y ademas mi ojo solo interpreta 30??
Salu2 y gracias.
PD: No se si tendria que ir aqui o en el subforo de monitores, si esta mal, porfavor moverla
-
casi toda la gente cree lo mismo, pero tu mismo te responderas al pensar lo siguiente:
ok dice ke me da 150fps en el call of duty (por ejemplo), esta todo el rato dandome los mismos fps??
si me cae una bomba delante, el tener ke renderizar sin prevision de ellos el humo, las particulas,etc…. tendra un coste extra no previsto por la targeta y digamos ke de 150fps dirante ese momento pasas a 120fps, solo eso se nos come 30fps(por poner un ejemplo, kizas menos), si le añades ke te estan disparando tendras mas cosas en pantalla y bajara algo mas los fps (105fps??).
nos hemos comido 45fps en este caso hipotetico....
añadele ke jugamos con algun filtro antialiasing o anisotropico.... a mas detalle menos FPS. Y kreeme ke kon estos filtros los fps bajan bastante segun el juego/pc/grafica
tambien segun la resolucion y bits(32/16) bajara mas aún todo esto....
ya no digamos usar directx9..... en algun juego una ati9800pro te dara 250fps si ok pero en algo directx9 por ejemplo en el HL2 te da 90 kreo ke era o sino 60 no macuerdo.por otro lado es verdad ke si el monitor esta a 75hz no te mostrara mas de 75fps.... pero por ejemplo (si me ekivoko ke alguien me korrija) pones ke no se sincronize la targeta kon el monitor (esta en las opciones dirext y opengl) la targeta estara escupiendo 150fps y el monitor leera 75fps maximo, los otros 75fps por decir algo sera el margen ke el rendimiento podra reducir sin ke tu monitor no deje de montrar 75fps maximo, luego si el juego chupa mas fps te ira bajando hasta 30fps y seguiras jugando perfectamente
resumiendo: toda esta aficion para conseguir mas y mas fps es basicamente para poder compensar la carga grafica del juego pues no es lo mismo tener 9 enemigos delante ke 25.
por cierto el ojo no ve mas de 25fps
-
Realmente hay diferencia entre ver un juego (sobre todo de accion) a 25-30 frames y verlo a 100. La explicacion es la siguiente:
- El ojo humano distingue el movimiento a partir de solo 25 frames PERO contando con la ayuda del "motion blur", que es similar a una fotografia de algo en movimiento muy rapido con un tiempo de exposicion muy corto. O sea, es lo mismo que la tipica foto de algo muy rapido y que se ve borroso.
- Este motion blur es lo que permite que el cerebro, con cada fotograma, sepa si algo se mueve o no y si se mueve, incluso la velocidad aproximada de este.
- Pero como las imagenes creadas en los juegos son perfectas en cuanto a que estan perfectamente definidas, en juegos muy rapidos podemos ver, cuando hay mucha accion un monton de cosas en pantalla no conocemos la situacion de cada cosa y los movimientos no se ven "bien". Cuesta hacerse una idea de un solo vistazo de lo que pasa y que hace cada uno.
- Un ejemplo seria: un francotirador en el cs (para variar XDD) asoma la cabeza por encima de una caja, dispara y te da. Con 25 frames es posible pk no lo has visto (se ha asomado, disparado y agachado en menos de 1 frame). Con muchos mas frames si habrias tenido mas posibilidades de verlo (teniendo en cuenta que los limita frecuencia de refresco), con "motion blur" habrias visto un borron en la situacion de este. Esto esta exagerado pero es mas o menos asi.
- Las solucion es: o simular "motion blur" en juegos y bastarian 25-30 frames, lo cual todavia esta en pañales, sobre todo por la potencia extra que requiere, o meter muchos mas frames para compensar.
Y esto aparte de que la fisica de algunos juegos depende de los frames (como el Q3) y que se pueden hacer cosas a muchos frames (saltos especiales, etc…) que no se pueden hacer con pocos.
Y tambien aparte de que quieras mas frames para poder compensar el meter mejores graficos como mejores texturas, efectos, resolucion, antialising, aniso, etc...
Pero tb es cierto k normalmente no se nota la diferencia. Solo es importante en juegos con un ritmo frenetico y movimientos muy rapidos de camara u camaras, sobre todo competitivos. Si juegas al half-life en single player normalmente te dara igual, pero jugando para ganar a otros si cuenta mucho. Probad a preguntar a cualquiera que compita en cualquier juego de accion sobre los frames.
-
En origen tienes razon y lo que comentas y hemos llegado a la conclusion de que seria suficiente con que un juego diese una tasa de 60fps como minimo seria suficiente, por encima de esa cifra no se notaria diferencia alguna (entre los 60 y 80 aproximadamente)
Pero el problema es precisamente el contrario, si bien una 9600 puede dar mas de 200 fps en un Quake III apenas llega a los 30 fps en un HL2 y otros juegos nuevos. Toda una 9800PRO puede dar medias de 70 fps lo que es realmente insuficiente para una tarjeta de mas de 300€.
La cuestion es que los juegos actuales estan fatalmente diseñados necesitando tarjetas de mas de 200€ para poder darte uno insuficientes 30 fps.
Por cierto, en la mayoria de los casos y quitando los juegos de velocidad como simuladores de vuelo o de carreras, no es necesario obtener esos 30 fps (reales) puesto que la accion transcurre muy despacio.