-
Pues señores, desconozco si voy a ser el primero o el único lo suficientemente imbécil como para decir lo que voy a decir, pero es que hay cosas que, a mi juicio, rayan el absurdo.
De un tiempo a esta parte resulta que parece ( o nos quieren hacer ver) que la tecnología ha tocado techo en el aspecto del rendimiento de CPUs y GPUs, y así nVidia lanza el siguiente planteamiento: que una GPU rinde poco, pues se ponen dos y en paz. Esto es, como sabéis el standard SLI.
Y esto, que parece un chiste malo, como todos ya sabéis el paradigma, el novamás de la informática doméstica a día de hoy.
Pero por favor, si ya cuesta enfriar un equipo "de mayores", y el tener una F/A de alto rendimiento no es algo al alcance de todos. ¿Donde pretenden ir contodo esto? ¿Me tendré yo que salir de mi habitación mientras tenga encendida una estufa con procesador de dóble nucleo a más de 3Ghz con dos VGAs G80 de 600Mhz cada una, tragando watios como loca?
La verdad es que, allá donde he dejado caer esto, he salido poco menos que apedreado simplemente por apuntar lo ridículo y chapucero de la medida. ¡Pero esque no es nueva tecnología y se está pagando como tal! Y con todo hay quien dice que es una "manera económica" de conseguir altas prestaciones en un equipo de calle.
Confío en que al menos alguien comparta mi opinión, si no, sabed que en el fooondo soy buena gente. ;D -
Bueno, ahí queda tu disertación, pero no creo ni mucho menos que la tecnología haya tocado techo, y la prueba más reciente la tienes en la nueva G80 de Nvidia. La famosa ley de Moore se va quedando pequenya y los chips cada vez duplican su potencia más rápidamente, y un buen ejemplo es la reducción del tamanyo de los trasnsistores en cada generación de GPU: no sé si te haces una idea, pero 60nm es 10-6 mm, es decir, muy pequenyo…
Aún así, me parece que esto tiene que tocar techo tarde o temprano, y como no se implementen pronto los oredenadores cuánticos no sé cúanto más se pueden reducir los componentes antes de que sea imposible trabajar sobre ellos...
Un saludo
-
Y porque te parece "chapucero" utilizar dos tarjetas graficas independientes para que cooperen y trabajen en paralelo para obtener casi el doble de rendimiento (no en todos los casos)????
Hay momentos en los que las limitaciones de la tecnologia hace que los ingenieros tengan que estrujarse los sesos para mejorar sus productosy este es un claro ejemplo (Crossfire para el caso de ATI). Que el echo de montar un sistema SLI/Crossfire requiera de una fuente de gama alta y el conjunto tenga un consumo considerable no es problema para los fabricantes, pues ellos no obligan a nadie a montar estos sistemas; los ponen a disposicion del publico y que cada uno haga con su dinero lo que quiera.
Para ponerte un ejemplo, porque venden coches en españa con motores de 300 caballos, etc…que alcanzan velocidades de 200 Kmh si no se puede circular a mas de 120 Kmh????
No se, pero hay quien se gasta su dinero en copas los fines de semana para que al cabo de 10 años tengan el higado echo una mierda y quien se gasta ese dinero en componentes para ver su nombre en el numero 1 de un ranking.
-
Exacto, le habeis dado los dos en todo el centro. Y es que concuerdo con vosotros porque, por extensión, hay cosas que no espuse.
Lo primero, que tras más de diez años (siendo modesto) de investigación por parte de IBM sobre núcleos moleculares, todavía anden diciendo que el problema es enlazar tales componentes con los dispositivos físicos de mayor tamaño. A mi juicio, la razón por la cual ésto no está ya en la calle es por lo mismo que no se simultanearon los lectores de CD de 24X y de 52X, simple estrategia de mercado. (Por supuesto, es pura especulación)
Lo segundo, que montar dos VGAs en tandem ya se apuntó con el lanzamiento de las primeras gForce, siendo Hércules a finales de los 90 quien incluso sacó una monstruo-tarjeta con doble procesador alimentada mediante un adaptador externo (y corregidme si me equivoco).
Y no lo veo (el SLI/Crossfire) chapucero por poco eficaz, sino por que el mismo resultado lo habría dado una nueva mejora en la estructura del chipset grafico (tal vez incluso de una mejora del bus) y una mejor redistribución de los componentes en la circuitería.
Y lo tercero, sin discrepar para nada (o sea) que esto ya no perdona a los equipos medios como venía pasando hasta ahora, que un ordenador "de serie" podía pasar hasta cuatro años sin mejorarlo drásticamente.
Hoy por hoy, o sabes bien lo que compras y cómo montarlo, sin mirar mucho el precio, o mejor prepararse para tener un brevísimo momento de gloria.
Pero en fin, parece que esto es lo que hay. -
La solución pasa por cambiar de arquitectura en las gráficas también, y investigar otras formas de ganar potencia que metiendo mas transistores, por muy pocos nm que tengan.
Rectificar es de sabios, y si no que se lo digan a Intel cuando mandó a la mierda la arquitectura Netburst y dio paso a la Core, que funciona mucho mejor y consume menos.
-
Desde mi punto de vista el SLI es una opcion mas. Es decir, que si compras una tarjeta grafica cada cierto tiempo y quieres que la que compres sea mas potente que la anterior por el mismo precio creo que no es necesario montar un SLI. O lo que es lo mismo: no estas obligado a tener un par de graficas en SLI si no quieres.
-
Yo creo que tanto SLI como Crossfire estan destinados a jugones ya que para el usuario normal que juega con una x1950xtx sola tiene mas que suficiente. De todas formas las empresas ( nvidia y ati ) ven que cada paso que dan requiere dar otro mas ya que los juegos cada dia estan peor optimizados y el hardware tiene que evolucionar para poder correrlo con fluidez. En resumen, no haria falta tanto cambio tecnologico si los desarrolladores se centraran mas en la optimizacion, por lo menos yo lo veo asi. Saludosss.
-
¡Esta publicación está eliminada! -
El problema es que a resoluciones como 1600x1200 o superiores con juegos como el fear, oblion etc… necesitas un sli o crossfire pk una sola grafica no es capaz de moverlo fluidamente, ya se entienda fluidamente lo que cada uno exige como un minimo estandar para poder jugar. Para esa clase de persona que quiere " vivir " el juego como dios manda este tipo de tecnologia le viene como anillo al dedo, y por lo tanto no se puede esperar a la nueva generacion de graficas. Aunque concuerdo contigo en tu razonamiento sobre las graficas y los precios, pero no me digas que no te tienta tener dos x1950xtx o dos 7950gx2 rulando juntas XDDDDD.
Por cierto veo en tu firma que vas a por una 8800GTX, ya nos contaras como rinde el bicho, por cierto ( y desviandome del tema principal ) que tal la fuente? La tengo en mente junto a una tagan, por lo que no se si merece la pena pagar mas por esta ultima. Saludosssss -
Me parece whoololon que estás equivocado en el concepto. No es económicamente feasible realizar chips de más de un determinado tamaño por el coste que supone. La tasa de error crece de forma exponencial en relación al tamaño del chip, además de que aumenta la fragilidad y por lo tanto la dificultad para trabajar con ellos. El aumento del bus no siempre es factible, ya que para poder incluir todo el patillaje necesario en el chip, te pones en esos tamaños de chip prohibitivos. Ya en su momento se decía que incluir un bus de 256 bits era algo tecnológicamente muy avanzado para su época, y ese mismo límite físico nos lo estamos encontrando ahora con los buses de 384/512 bits. Te aseguro que si fuera económicamente rentable, hace mucho que se habría ampliado el bus, el número de unidades… pero hay que encontrar un equilibrio entre prestaciones y precio, y tanto el SLI como el Crossfire cubren esos nichos sin necesidad de desarrollar otros productos. Estas soluciones tienen sentido porque es económicamente mucho más rentable producir dos tarjetas de gama alta, que una tarjeta con el rendimiento equivalente.
Pensemos en el equivalente en los coches, como podría ser el turbo. Es un elemento que reduce la vida útil del motor, produce muchos problemas mecánicos, no tiene un rendimiento aceptable en toda la curva de potencia... pero su inclusión permite tener coches de muchísima potencia con un tamaño del motor contenido. ¿No sería mejor que el tamaño del motor fuera mucho mayor, para tener la misma potencia pero sin los inconvenientes del turbo? Si, pero también tendríamos el problema del coste, ya que un motor de potencia equivalente puede necesitar tener el doble de tamaño, y hasta cierta cilindrada se puede hacer, pero a partir de una cilindrada no es factible, además de que siempre es mucho más económico un turbo más un motor de un tamaño contenido, que un motor de mucho más tamaño y potencia equivalente.
-
@Javisoft2004:
En resumen, no haria falta tanto cambio tecnologico si los desarrolladores se centraran mas en la optimizacion, por lo menos yo lo veo asi. Saludosss.
Es y no es así. Pongamos por ejemplo las consolas. Todas las PS2 tienen básicamente el mismo hardware, por lo que los desarrolladores programan pensando en él y los juegos se optimizan al máximo, no encontrándonos nunca un software que requiera más potencia que la que la PS2 ofrece (a no ser que esté mal programado), sin embargo en las plataformas PC si que se han acostumbrado a que el hardware avance, y cuentan con ello en cada nuevo desarrollo. De hecho es el software (juegos y Windows principalmente) el que nos impulsa a ampliar hardware.
A Kynes:
Y además los motores turbo (o con compresor, otra solución similar) consumen menos a igual potencia. Lo mismo un turbo de 4 cilindros da 200cv y para conseguir lo mismo con un atmosférico casi tenemos que recurrir a 6 cilindros. Un ejemplo es el Golf 1.4 TSI, con 170cv y un compresor para la zona baja de RPM y turbo para el resto, con un consumo bastante contenido. Eso sí, no quisiera dejar en un taller de barrio este coche porque no sabrían por donde meterle mano :risitas:.
Lo siento, me emocion también con los temas del motor
-
Lo segundo, que montar dos VGAs en tandem ya se apuntó con el lanzamiento de las primeras gForce, siendo Hércules a finales de los 90 quien incluso sacó una monstruo-tarjeta con doble procesador alimentada mediante un adaptador externo (y corregidme si me equivoco).
la 1º tarjeta comercial en montarse en SLI era de…... 3dfx ( comprada posteriormente por Nvidia )
la otra pregunta es:
es necesario jugar a 1600x1200 con todos los detalles al max sin que baje de 60Fps ????
yo personalmente no lo necesito por una sencilla razon..... los graficos no son importantes para mi, primo la "jugabilidad", una buena historia por encima de graficos realistas que solo consumen maquina ... (debe ser por eso que ya no juego... los ultimos juegos que probe me parecieron "pobres" por muchos graficos megaways que tengan )
Yorus un 2000 16V puede dar tambien los 200Cv sin necesidad de turbo
-
Yorus un 2000 16V puede dar tambien los 200Cv sin necesidad de turbo
Era un ejemplo, pero ten en cuenta que a ese mismo motor se le puede añadir turbo con los pertienentes refuerzos. El 1.8T del Leon Cupra antigüo llegaba creo a 225cv y es menos cilindrada.
-
¡Esta publicación está eliminada! -
@TRISTAN_9:
Por si no me explico bien, os pondré un ejemplo:
Opción A: Principios de año- monto un Crossfire de X1900XTX por unos 1200€ aproximadamente.
Opción B: Principios de año- monto una sola X1900XTX por unos 600€ aproximadamente.
Finales de año- monto una 8800GTX por unos 600€ aproximadamenteYo te propongo una OPCIÓN C.
OPCION Lanzamiento de la consola XBOX360 o PS3 por unos 600 € aproximadamente.
¿Tiempo de disfrute de la consola a pleno rendimiento?: 6 años.Moraleja: Siempre hay una 3º opción
-
Retomando el hilo principal de éste debate, y agradeciendo de corazón todas vuestras opiniones, vengo a dar otra vuelta de tuerca a esto del SLI.
A éstas alturas todos habreis visto una placa base para SLI. ¿Podéis decirme en menos de 10 segundos qué tres cosas llaman más la atención?
Para mí las siguientes:
1- Protagonismo absoluto del dispositivo SLI en una disposición de elementos que no ha variado en nada o muy poco, ni siquiera para facilitar la refrigeración de ambas tarjetas. A éstas alturas ésto ya se debería haber tenido en cuenta, y no dejar la pelota en el tejado del consumidor.
2- Señores ¿Para que siguen poniendo renuras PCI? La más superior entorpecerá, por no decir imposibilitará, la refrigeración de la segunda GPU. Y si tenemos la suerte de encontrar placas base con más de dos PCI ¿Que hago yo con mi SoundBlaster y mi capturadora de video? Por supuesto que hay placas base con hasta tres PCI, pero el hecho de que se vayan reduciendo paulatinamente, me incomoda y da pie a pensar en un próximo standard.
3- Del IDE, paso siquiera de hablar, se mantiene presente por la misma razón que el bus ISA en los 586, por mera compatibilidad.La alternativa a esto pasa por tres opciones: a) Esperar un año a ver que pasa. b) Obviar todo chipset por encima de 550 y seguir con un sistema de GPU simple. c) Empezar a asimilar que la era del PC tal y cómo fue concebida ha muerto, volviendo a lo que la propició, sistemas de varios fabricantes incompatibles entre sí, pugnando por ver quien imponía su marca sobre las demás.
Por supuesto, estoy exagerando. Pero no está de más reflexionar viendo que, a medida que se han ido retirando competidores de la carrera, esto del PC se ha reducido y mucho, dejándonos muy poca libertad de maniobra a la hora de elegir componentes para tratar de igualar en rendimiento a una PS3.
Curioso, hasta no hace mucho las consolas andaban DETRÁS del rendimiento de los PC. :susto:Por cierto, lo que diferencia a los coches "de antes" de "los de ahora" no es el turbo, ni el tamaño del motor, sino la compresión que se ha logrado en la cámara del cilindro, y que es causa principal de la potencia y al mismo tiempo del envejecimiento del motor. Un motor de 1200cc antes daba 25 a 30 cv. como mucho, y hoy día la misma cilindrada puede ofrecer hasta 75 cv. en gasolina. Por supuesto, ese motor duraba mucho más que el actual. De ahí la frase, "ya no se hacen coches como los de antes"
-
¿Y como se consigue ese aumento de la compresión?
-
Ehhh…...............sinceramente no se porque te disgusta tanto la opcion del SLI, no lo se; yo tengo un SLI y desde luego no pienso como tu pues como te dije con anterioridad me parece una buena opcion. En mi caso particular, pude conseguir la tarjeta necesaria para hacer el SLI por muy poco dinero y esta fue la causa principal por la que hoy lo tengo.
¿Protagonismo del SLI en la disposicion de los elementos?..............Pero si la disposicion de los PCI-E los decide el fabricante de la placa base, no he visto que te hayas quejado de los fabricantes de placas.
Siguen poniendo zocalos PCI para dar compatibilidad a tarjetas bajo este formato, que son muchas; pero como el espacio en la placa base es limitado si alguien opta por poner un SLI7Crossfire debe terner en cuenta esta limitacion. Por lo tanto es cuestion del consumidor, de nadie mas.
Con respecto al IDE, te has parado a pensar porque cuando llego a ATA133 no siguio evolucionando??? Pues simplemete es porque aparecio el SATA que es mucho mejor. Si te fijas detenidamente en una faja de bus IDE ATA 66 y en otra ATA 133 verás que el numero de lineas es el doble. Crees que son el doble de lineas de transmision??? Pues no, ese doble de lineas son señales de tierra pues hacer funcionar tal cantidad de lineas de transmision en paralelo no es nada facil (impedancia entre las lineas, sincronismo, etc..). Por contra el interfaz SATA (la S es de SERIE, uno solo) consigue mayores velocidades de transmision, que es lo que se demanda hoy en dia.
En mi opinion, en el mercado hay infinidad de configuraciones posibles y cada usuario puede escoger la que crea mas oportuna, pero hay ciertas cosas que estan presente en casi todas de ellas como por ejemplo el SATA y el PCI-E; y estas han ido relegando al IDE y AGP sencillamente porque son mucho mejores.
De coches no hablo porque tengo muy poca idea, asi de sencillo :risitas: