27573 puntos en el 3DMARK
-
y ati ya ha creado otras veces tarjetas de dos gpu, la fury64 maxx ke llevaba dos procesadores rage128 en paralelo y 64mb, 32 para cada procesador.
de todas formas yo no me crei la noticia, esta claro ke esperanzas de ke ati haga algo asi hay, pero mira ke otras veces han engañado a las firmas de reviews, incluso maz se a colado alguna(os acordais del XP3000+?)
taluegor
-
Eso del XP3000+ fue en el dia de los inocentes de usa Salieron bastantes fakes ese dia..
-
pues con mas razon para haber sospechado mucho mas….eso si, no te voy a negar ke yo mismo me emocione, ademas el micro era bonito y todo:D
-
Pos yo me lo zampe enterito….¡¡¡¡inocente de mi!!!!!!:rolleyes:
De todos modos el post en el que lo aclara cuando yo lo vi todavia no estaba:)
Un saludo:D
-
Lo que comentais de las dos tarjetas de 3Dfx unidas mediante SLI o los dos micros de ATI, no eran GPUs. En la primera cada tarjeta representaba un frame y en la segunda cada chip una linea de la pantalla, eso no tiene mayor problema.
Ahora con las GPU y las unidades T&L es la tarjeta la que calcula la geometria de la escena, los poligonos, como se mueven y se mezclan, por lo que si una GPU representara una pantalla y otra la otra perderian toda la potencia, ya que no sabria donde estaba ese poligono antes y tendria que calcularlo. Me explico, si tienes un triangulo en el fondo de la pantalla, la GPU lo dibuja y para traerlo hacia adelante lo redimensiona, sobre un triangulo que ya conoce. Si son dos GPUs, tendria que volver a dibujar la figura (triangulo) un poco mas cerca.
No digo que no se pueda hacer, las CPUs lo hacen, pero ahora mismo no lo veo viable ni tecnocamente posible para una GPU.
-
no tengo ni idea de como rual las graficas, pero no podria hacerse como en el asunto de primero un frame una, y luego un frame la otra? y no habria forma de hacer ke ambas gpus calcularan a la vez una misma escena, acelerando asi su aparcion?
taluegor
-
krampak, porque es un fake?
1: El nombre de la aceleradora se coje de su BIOS o del Windows (que el windows lo coje de la BIOS)
2: el mensaje ese a mi no me salepor mucho que modifique
3: si haces solo unos test veras que no te dice que lo has terminado precisamente porque no lo has terminado, solo has hecho una parte
4: segun tus calculos a mi me daria 11413 y me da 10579, si dejo la calidad predeterminada me baja unos 1200 puntos y si hago el test completo me sube unos 300.
no pienso decir que es falso, porque si es cierto que lleva 2 R300 y QDR puede ser perfectamente cierto, pero tampoco digo que sea real, es cierto que son numeros muy altos pero no seria la primera vez que un buen diseño hace milagros y nos sorprende
Aqui esta mi captura si lo quereis ver: http://perso.wanadoo.es/garroscomputers/3DMark.JPG
Saludos
-
pues yo creo es esto es totalmente posible, pero necesitarian un "procesador" que dirigiera las operaciones a realizar por cada GPU… hoy en dia hay aquipos duales, y en barcelona tenemos un cluster de 64 procesadores... e incluso llegue a ver un cluster de 64 PCs duales... y por no mencionar la DDR de nVidia a 400Mhz que usa 2 "modulos" a 200Mhz y reparte los datos de tal manera que se muven al doble de velocidad, una de las cosas de las que estoy orgulloso de mi placa base, que tambien lo hace...
Ademas alguien se ha puesto a provar su targeta con las opciones que ponen ahi? yo lo he hecho con mi GF3Ti500 de Creative sin OC ni nada por el estilo y voy rozando los 10000 puntillos...ahora, esto no quita que sea un fake...
-Project: Test not run yet <-- eso lo pone al finalizar el test mientras miras la pantalla...
-The benchmark was not run using default settings <-- eso estaba mas que claro, ya que solo ha dejado los test de fps...
-Otro punto a tener en cuanta es que donde pone la VGA te detectara la que le pongas mientras windows la reconozca, por que que yo sepa no lee directamente de la targeta xDD
la verdad, no se por que os escandalizais tanto, y como ya he dicho, no se si sera un fake, pero desde luego, yo no me fio hasta que no se anuncie publicamente, y de fuentes oficiales...
-
¿Y qué usa, Hiper-AGP-Pro2 a 24x?
-
el windows coje el nombre de la bios?de ke bios?pk yo asta aora si no le meto sus drivers, el winndows solo me dice adaptador de graficos estandar(PCI), eso si, con drivers te reconoce lo ke sea, y es de ahi de donde toma el nombre el 3dmark
-
Estoy deacuerdo con noldor el nombre lo coje de los drivers, yo instale los omega-plutonium para ati y el windows me decia que tenia una ati7500omega-plutonium o algo así y el 3dmark también el nombre esta en los drivers…
-
Resultados y tecnologia aparte, no deja de ser raro que ATI le de la tarjeta a un betatester, desde cuando las tarjetas se 'liberan' para verificar que funcionan bien. Que yo sepa las prueban en los laboratorios.
-
y como digo yo, si la tarjeta tuviera ese rendimiento no se la iban a dar a un pavo italiano pa ke lo postee en un foro perdido, ahora estaria en annadtech, tom's hardware y demas webs especializadas.
para mi sigue siendo un bulo
-
Yo del 3DMark no entiendo porque no rula en mi vga, pero lo del tio italiano es por lo menos raro, ademas, ¿italiano?.
-
Hay que ser fantasmon. Lo q hacen algunos con el paint. XD.
-
No esta mal…. pero es mejor mi nueva Gf5 Ti 6400, con 3 GPUs...jejeje
-
Esa si que es buena Pibe creo que me voy a comprar una ¿crees que habra version para PCI?:D
una saludo
-
jojojojo, KE BUENO, ya vereis como si ahora miramos por algun foro guiri alguien comenta la noticia de una geforce5….........:D
-
Por supuesto, y para ISA también.
-
Que más quisieran los guiris tener mi tarjeta gráfica!!!