-
A mi me gustaria ver a todos cuando esten disponibles, a lo mejor las diferencias despues no lo son todo lo grande que nosotros pensamos, por las caracteristicas tienen pinta de ser verdaderos monstruos pero que no destacaran tanto por la velocidad sino por la calidad, que parece que es por donde van los tiros hoy en dia.
Probablemente haya salido un poco tarde, pero espero que matrox se "ponga" las pilas y afine un poquito los drivers de esa "maquina", ya que yo creo que hay muchisimo mas potencial del que han mostrado los bench existentes:)
Un saludo:D
-
Exacto. Segun las paginas q he leido el fallo esta en los drivers. Potencia tiene de sobra, y calidad de imagen tambien. Lo q pasa es q estan comparando una tarjeta q el core va a 200 contra cores a 2500 y 300; y la memoria a 500, frente a otras que van a 550, 600.
Ademas, lo q matrox nos vende no es una tarjeta q tenga chorrocientos fps en quake, sino 60 fps pero con una calidad q deja en bolas a la ti4600 y a la 8500. Ademas, ¿3 monitores? haces eso con una 4600 y se te muere. Con 2 a calidad bestia lo nota, imagina 3
16FAA, je, y las otras 2 a 4x ya estan sudando. Las quiro ver yo con 16 de FAA a ver si hacen 100 fps en UT2003 .Y con todo esto, se ven mejor q las fg y ati. Espremos nuevos drivers y a las rv250 y 300 y a las gf5.
-
yo personalmente opino ke es un fracaso, las especificaciones de la tarjeta son impresionantes, IMPRESIONANTES, y la calidad de imagen buena, pero me diras tu si te fijas en las lineas del 3º escalon del max payne, yo por lo menos no, y kon la ti4600 le metes el fsaa x4 y lo apañas un pokito sin ke la perdida de rendimiento te estorbe, con el parhelia, si le metes demasiada calidad acaban bajando tanto los frames ke pierde la marca de 25fps, y eso si ke jode para jugar, porke la imagen parpadea.
un apaño a los drivers?pos calramente, pero por mucho apaño ke le kieran hacer, no van a sacar el doble de rendimiento a la tarjeta, ke es lo ke kreo yo k le hace falta para ke triunfe y haberle dado un mazazo a nvidia.nvidia dentro de na presenta otra geforce, o la mete a 512 bits y ya nadie volvera a acordarse de la parhelia.
a titulo personal, seguire con mi cutre kyro2 asta k ya no awante, o la kompetencia de nvidia le haga bajar mucho los precios a sus geforces de 2 meses, y el parhelia no me parece el chip k lo haga.
todo esto lo opino con lo visto asta ahora, tal vez se desate de repente un caos y corrupciones internas en las marcas de reviews;) -
Y otra cosa mariposa….
¿Quien tiene posibilidad de tener 3 monitores? ¿o un escritorio para que te quepan 3 monitores? si...si... los hay TFT que ocupan menos.... pero.... y el mogollón de €uros que vale comprarse 3 monitores TFT para no poder usarlo en todos lo juegos.
Yo actualmente tengo la Winfast GeForce4 Ti4400 y una PCI Matrox 4 mb con 2 monitores, y me falta mesa. Eso sí, estoy buscando un asqueroso conversor de DVI-VGA que no encuentro por ningun lado!!!
Pues eso, el soporte de 3 monitores está guapo, pero faltan €uros y mesa para tenerlos... y siempre renunciando a la potencia de una nVidia...
-
Garfield, la velociadad no es escusa, como ocurre con las CPUs son micros distintos por lo que uno puede rendir mas a menor velocidad.
Yo que quereis que os diga, desde que salieron las primeras especificaciones habia algo raro, daba la sensacion de que no habian terminado de desarrollar el chip y que debian sacarlo ya. Esto se nota en la no inclusion de tecnicas para no calcular los poligonos que no se ven y que optimizan el ancho de memoria. O el no soportar Directx9, algo que le resta mucho tiempo de vida.
Sin embargo tiene otras caracteristicas impresionantes, como trinta y tantas texturas simultaneas y el mapping ese. Es como si hubiesen desarrollado mucho unas cualidades y las otras se hubiesen quedado a media, para colmo esto dice Carmack:
-
Por cierto, sobre el P10 de 3DLabs pienso que si puede ser un producto porque ofrece mucha mas caracteristicas que sus competidores, sin embargo el estar diseñado especificamente para un mercado profesional va a hacer que no saque tanto rendimiento como los chips de ATI o nVidia.
Como y acomente en otro post, hoy por hoy nadie puede hacerle sombra a estas dos compañias y aunque ATI ha ganado muchos puntos con el Doom III, si el NV30 tiene todo lo que promete (tecnologia 3DFx) obtendra mas fps.
-
En mi opinión, la de Matrox no será una tarjeta que mucha gente compre para usarla en casa, por muchas de las cosas que ya habéis comentado, disponibilidad de 3 monitores, falta de espacio, y que además no creo que sea tan buena para juegos como las de nVidia o ATI. Y por mucha calidad que digan que dará…yo paso de tener 60 FPS aunque sea super-extrema calidad...creo que por el precio que tiene, bien podría tener ambas cosas , calidad y velocidad
Por supuesto seguro que con drivers mejores la cosa cambie, pero en el tema drivers creo que hay gente que sabe un rato en cuanto a optimizar, como es el caso de nVidia, así que Matrox no lo tendrá fácil. -
Yo opino que hoy por hoy tenemos unas targetas que unque a mucha gente no se lo parezca son mucho mas potentes de lo que necesitamos, lastima que sean tan potentes y los desarrolladores de juegos y aplicaciones 3D no optimicen lo suficiente, hoy poy hoy nVidia, pero si alguna compañia es capaz de sacar una targeta que pueda dar al menos 30fps en todos los juegos y motion blur real, os ivais a cagar todos, y cuando hablo de motion blur real no hablo de ese difuminado guarro que tiene la PS2, sino de procesar los frames con antelacion a la presentacion, de tal modo que dibuje la union real de un frame con el anterior y el siguiente, generando una calidad impresionante y un autentico efecto de movimiento, pero si hay alguien que se dedique al diseño bien sabra que el motion blur, juento a la iluminacion y sombreado es de lo mas machaca en cuanto a tiempo de procesador… ademas como ya he comentado antes, opino que deberian de trabajar en tecnologias, no en velocidad, y por supuesto darles uso... alguien se imagina que se podria hacer si las aceleradoras procesaran boxels en tiempo real? si, esa tecnologia que usaron en Delta Force 1, 2 y en Outcast... ahi queda la cosa
-
Como comentas hay nuchas tecnologias que no implementan las tarjetas, ya que buscan mas la velocidad que la calidad.
Si implementaran el Blur, pues lo flipariamos todos, pero creo que para eso queda mucho.
Si a mi me garantizasen que la Perhalia me va a dar 30 fps en todos los juegos en los proximos 2 años me la compraba, eso si, con todas la chorradas graficas al maximo.
No entiendo a la gente que tiene una tarjeta que le da 30 fps en cualquier juego y quiere algo mas, ¿para que?. Por encima de 35-40 fps no somos capaces de distinguir las imagenes.
-
en general no somos capaces de distinguirlas por encima de 25fps, pero si hablas de ke la tarjeta te da 30fps en los juegos, hablas de media, unas veces te dara 20 y otras 40, y es ahi donde notas la diferencia. sin embargo en una media de 60 suele ser dificil ke baje de las 25, pero claro todo esto es relativo segun la calidad grafica del juego y lo ke este dibujandose en ese momento
-
Pero yo no me referia a la media, sino que una tarjeta te de los 30 fps constantes a lo largo del juego.
Pongo 30 porque si alguien tiene un televisor NTSC de 60 Hz, esa sera la velocidad del mismo y otros 5-10 mas por si hay alguien muy sensible y es capaz de distinguirlo.
-
Yo creo que Matrox tiene asumido su 3ºpuesto en el ranking de tarjetas gráficas. Sabe que no va a superar a NVIDIA, asi que no lo intenta. Saca tarjetas gráficas diferentes, con otras opciones para aquellos usuarios que tienen 3 monitores y quieren jugar tres partidas a la vez al tetris.
Y si la Parelhia funciona bien (+30fps) con el 16FAA, pues que le den por culo a las NVIDIA 4FAA y sus 15000 puntos en el 3DMark, porque darán 150fps, pero tanto fps ya parece un desperdicio más que potencia.
-
Por la red se comenta que por mucho que Matrox pula los drivers, no va a ganar más de un 20% de rendimiento, y dado el actual que su tarjeta tiene, no es mucho, pero ya veremos qué pasa.
-
No tienes DDR Luzbel??
-
Publicado Originalmente por Pibe
No tienes DDR Luzbel??Nop, cuando yo monté mi PC la DDR era bastante más cara que la normal(y yo necesitaba 512).
-
Es mejor tener 256DDR que 512SDR
-
Depende del uso, a mi me das un PC con 256 sea de lo que sea y te lo colapso en cuestion de segundos con un 3D Studio…
-
En general, Dez, en general….:p
-
Segun la encuesta ATI parece que recorta diferencias con Nvidia, parece que las especificaciones del R300 estan haciendo ilusion.
-
A mi me parece que Matrox no ha querido hacer frente a Nvidia, ni ha desarrollado una tarjeta para jugadores.
Simplemente ha creado una tarjeta capaz de dar una calidad de imagen muy buena, con suficiente memoria y con el soporte para tres monitores. De esta manera se asegura de no perder a sus clientes, los que trabajan con 3D Studio, Autocad, Maya, y demás programas, que valoraran su calidad de imagen y los tres monitores.
Segun mi punto de vista, si hubiera querido crear una tarjeta para jugadores, hubiera implementado tecnicas de eliminacion de superficies ocultas, porque está claro que hoy en dia sin estas técnicas no se consiguen buenos fps.