Radeon HD5850/5870
-
bueno pues algún dato más en traficantes de harware que he encontrado de la x2.
Traficantes de Hardware - AMD nos deja ver su esperadísima Radeon HD 5870 X2Si Nvidia no está llorando ya tras el lanzamiento de la serie HD 5800, de seguro que va a empezar a derramar una lágrima o dos. Mientras que la Radeon HD 5870 y la HD 5850 están ya de camino hacia las tiendas, AMD nos deja ver por primera vez su próxima tarjeta de gama alta de doble GPU, la Radeon HD 5870 X2.
Esperando que hagan su debut en noviembre, la Radeon HD 5870 X2 (nombre en clave Hemlock) cuenta con dos GPUd Cypress 40nm, es CrossFireX-ready, tiene una interfaz de memoria 2x256 bits, y requiere tomas de alimentación adicional a través de un conector PCIe de 6 y otro de 8 pines. La tarjeta contará con 3.200 Stream Processors, pero sus relojes para GPU y memoria son todavía desconocidos, ya que debido a sus altos requisitos de potencia y disipación de calor, no pueden llegar a 850/4800 MHz, como la single GPU HD 5870.
a Radeon HD 5870 X2 está previsto que cuente con un precio de $ 500. Parece que va haber que ahorrar para estas navidades. /
y yo os pregunto que conexiones son esas de la imagen de abajo:
supongo será uan coña o algo por el estilo o algo muy nuevo a ver si sabeís decirme.Por cierto gigabyte tambien se une a ATI:
-
Esa imagen que has puesto es una Six (HD5870 Six), y esos conectores son display port (para poder conectar 6 monitores o más).
En teoría, la HD5870 x2 no tiene dos chips separados, sino dos gpus pegadas en el mismo encapsulado a lo Pentium D o Core 2 Quad, a no ser que ATI haya cambiado de opinion y no lo quiera hacer asi.
-
Pues si que tiene que estar bien jugar con 3 monitores en vertical T_T
Si la HD4870x2 bajara de 300€ os la cojeriais? o iriais por la HD5870. De momento estan parejas pero yo creo que cuando los drivers dejen de estar verdes la superara de mas. -
Pues si que tiene que estar bien jugar con 3 monitores en vertical T_T
Si la HD4870x2 bajara de 300€ os la cojeriais? o iriais por la HD5870. De momento estan parejas pero yo creo que cuando los drivers dejen de estar verdes la superara de mas.Prefiero la HD5870. ;);)
-
Me parece que estamos llegando al tope de tamaño/consumo en gráficas, hay que empezar a reducirlo porque no es lógico tener que disipar 300-400W para una sola gráfica. Va a pasar como con los procesadores que estaban consumiendo 120W con un solo núcleo y tuvieron que cambiar de planteamiento, y ahora consumen al rededor de 30-40W por núcleo.
Lo que si me gusta es el display port.
Y yo me quedo con la 5850, por precio dudo que compense ahora mismo la 70. Y las X2 tampoco las veo necesarias.
-
Una cosa para los que queráis compraros la 5850… la proporción, al menos en las primeras tandas de tarjetas, va a ser de 3 a 1 en número de 5970-5850. Como no tengáis cuidado, va a ser complicado conseguirlas en los primeros meses, ATI quiere aprovechar que tiene ventaja estratégica al sacar la tarjeta antes.
Teóricamente tiene muy buena pinta, parece que los drivers están tirando algo hacia abajo de ellas, solo hay que comprobar cómo la diferencia de rendimiento es muy superior en juegos "poco utilizados en reviews" respecto a los comunes en estos análisis, pero no quiero especular sin saber más de las tarjetas de nVidia ya que nos pueden sorprender. El problema es que la gente ya no se acuerda de cuando no había crossfire/SLI, que un aumento en una generación del 40%-50% nos parecía la leche (GF3 a GF4, 6800 a 7800) y en algunos casos incluso menos (GF2Ultra a GF3), y hay muchos que están decepcionados con el aumento de rendimiento, pero con mejoras en drivers, la cosa tiene que ir distanciándose poco a poco. Y no olvidemos DX11, que va a ser algo muy gordo, no a corto plazo, pero a medio-largo plazo va a ser una revolución tan grande como de DX8 a DX9. La libertad que dan los compute shaders (OpenCL, Direct Compute) va a permitir que veamos cosas muy interesantes.
Ah, ya tenemos el primer juego en el que tener DX11 permite un aumento de rendimiento considerable. En BattleForge, con DX11 se consigue un aumento de rendimiento del filtro SSAO al aplicarlo con compute shaders (DX11) respecto a aplicarlo mediante pixel shaders (DX10) de hasta un 38%:
Beyond3D Forum - View Single Post - AMD: R8xx Speculation
(Demirug es el director de proyecto del motor gráfico del juego, así que es una fuente "fiable"
nVidia tiene que ponerse las pilas, la competencia nos beneficia para que bajen los precios…
PS: Tengo una tarjeta nVidia, pero tengo preferencias por ATI, así que tened esto en cuenta siempre que escriba algo. Soy bastante parcial, y ya me metí toñas muy gordas como al recomendar las X1800, que en teoría prometían muchísimo, y en la práctica eran unas castañas de la leche :risitas:
-
Nvidia tiene problemas de fabricación con el g300.
La tasa de defectos es un factor importante en el precio y disponibilidad de hardware que muchas veces es pasado por alto. El uso de silicio en la fabricación de hardware está lejos de ser perfecto y con las técnicas actuales se desperdicia mucho material. Nvidia conoce muy bien esto y los están experimentado en carne propia una alta tasa de defectos con su tarjeta grafica GT300.Según rumores la GT300 debería salir al mercado más adelante este año pero si estos reportes son verdad y AMD no enfrenta una situación similar con su serie HD 5800, Nvidia podría estar en serios problemas. Esta nueva tarjeta es clave para enfrentar los ofrecimientos de AMD y si no la sacan a tiempo el camino estará libre para que la competencia continúe avanzando.
Las altas tasas de fallas no siempre afectan de manera negativa el mercado. Cuando Intel comenzó a ver problemas con el complejo cache L2 de los primeros Pentium 2, la compañía decidió desactivar el cache y vender los procesadores de todas maneras – aquí es donde aparecieron los Celeron. Poner otra marca a los procesadores defectuosos y venderlos como una opción menos potente se ha convertido una práctica común, pero difícilmente es una opción para Nvidia.
Esto lo he leido por aí y la verdad ya no me creo nada. En algunos sitios dicen que Nvidia asegura chafar a ATi y su HD5870 con el GT300, que sera un cambio parecido al del g80 y cosas asi. Estoy un poco mosca porque tengo mucha mala suerte y en menos de un mes tengo que comprar el pc como mucho tardar y pensaba cojer la ATI 5870 y seguro que salen raras xD.
-
Probablemente ATi está amortizando ahora el calvario que pasó con los defectos de fabricación de chips de su serie HD4700, con la que recordemos pretendía inundar el mercado con precios muy agresivos, pero los enormes costes debidos a los retrasos de los chapuceros de TSMC se lo impideron :vayatela:
Ahora NVIDIA es la perjudicada, aunque puede permitirse el lujo de aguantar un poco más, bajando precios de sus GTX285 y GTX295, cuando saquen el famoso Hemlock (HD5800x2)
Salu2!
-
Probablemente ATi está amortizando ahora el calvario que pasó con los defectos de fabricación de chips de su serie HD4700, con la que recordemos pretendía inundar el mercado con precios muy agresivos, pero los enormes costes debidos a los retrasos de los chapuceros de TSMC se lo impideron :vayatela:
Ahora NVIDIA es la perjudicada, aunque puede permitirse el lujo de aguantar un poco más, bajando precios de sus GTX285 y GTX295, cuando saquen el famoso Hemlock (HD5800x2)
Salu2!
Como las baje más de precio va a empeza a perder dinero por tarjeta vendida, la GTX285 es bastante cara de fabricar, entre el chip descomunal y el bus de memoria de 512 bits.
Yo creo que ATI puede tener bajo la manga una HD5890, tal vez con un bus de memoria de 320 o 384 bits para cuando nVidia saque el GT300. Que aunque parezca que la HD5870 rinde mucho, en realidad está bastante limitada de ancho de banda, al subir de frecuencia las memorias el rendimiento aumenta bastante y es la principal razón de que la HD4870 x2 rinda más que la HD5870 en algunos juegos (además de los drivers).
Hay que tener en cuenta que por ejemplo la HD4890 tiene memorias a 3,9Ghz, y esta HD5870 las tiene a 4,8Ghz, hablando por lo bajo, son 250mhz aproximadamente de aumento de velocidad en los chips de memoria (250 x 4 por ser GDDR5) y en potencia de computación es algo más del doble de potente que cada chip de la x2.
-
Entonces compensaria más comprarse una 4890 X2, que una 5870, no?? Aunque lo que vale la primera…. :vayatela:
Y por que a la 5870, le ponen el ancho de banda tan bajo?
-
Yo me iría por la 5870, ya que es ultima tecnología (40nn) y no cogería la 4890 ya que es doble consumo y nunca podrás ampliar, en cambio con la 5870, el dia que te aburras montas un crossfire y a tirar…
-
Entonces compensaria más comprarse una 4890 X2, que una 5870, no?? Aunque lo que vale la primera…. :vayatela:
Y por que a la 5870, le ponen el ancho de banda tan bajo?
Para ahorrar costes. Si se ven en necesidad de sacar una tarjeta más potente, pues suben frecuencias y voltajes, le meten un bus un poco mayor y ale, ya tienen un 20-25% más de rendimiento por la patilla.
Yo sigo prefiriendo una HD5870 que un CrossFire o una HD4870 x2, a pesar de todo esto.
-
Entonces con un poco de OC y subirle los voltajes a la hd5870 tendriamos un tarjeton invatible no?
Nosé donde lei que pusieron una HD5870 de asus con un poco de voltaje a mas de 1050/5200 y que el rendimiento era brutal.Me imagino una HD5870 DDR5 de 512 bits y se me cae la baba
-
Lo leiste en el #57, además hacían que la 5850 con OC puliera a la 5870 y que estas dos con OC tenían muy poca diferencia a pesar de los 1440 shaders de la 5850. Todo ello con asus.xD
-
Lo leiste en el #57, además hacían que la 5850 con OC puliera a la 5870 y que estas dos con OC tenían muy poca diferencia a pesar de los 1440 shaders de la 5850. Todo ello con asus.xD
Si asi es. Las dos con el maximo de OC se quedaban en un 5% de diferencia o así
-
Para ahorrar costes. Si se ven en necesidad de sacar una tarjeta más potente, pues suben frecuencias y voltajes, le meten un bus un poco mayor y ale, ya tienen un 20-25% más de rendimiento por la patilla.
Ok, Gracias por la aclaración.;)
Yo sigo prefiriendo una HD5870 que un CrossFire o una HD4870 x2, a pesar de todo esto.
Ok, tomo nota.
Aquí hay opiniones para dar y tomar, puff el que busque una gráfica y tal… vaya lío, jeje -
Si asi es. Las dos con el maximo de OC se quedaban en un 5% de diferencia o así
Pues entonces vale más la pena casi comprar la 5850, que la superior, no? Si solo hay una diferencía de un 5%, en fps, aopenas se aprecia…
bufff menudo lío :eoh:
-
Yo tengo que acerme con una HD5870 que con una Intel GMA950 que estoy tirando ahora me voy a suicidar xD llevo ya mas de 1 mes asi T_T
Y si te digo la verdad lo unico que me da miedo es el GT300 porque especulan de un ancho de banda de 250gb/s o mas
Edito: El 5% de diferencia es en las frecuencias, as de tener en cuenta que la HD 5850 esta recortada de mas cosas que de largo como de SP entre otras cosas. -
Yo tengo que acerme con una HD5870 que con una Intel GMA950 que estoy tirando ahora me voy a suicidar xD llevo ya mas de 1 mes asi T_T
Hombre al solitario y al buscaminas, creo que te llegará :risitas:
Edito: El 5% de diferencia es en las frecuencias, as de tener en cuenta que la HD 5850 esta recortada de mas cosas que de largo como de SP entre otras cosas.
Pero pufff… Aun así... Pero bueno para gustos... colores
-
**Hombre al solitario y al buscaminas, creo que te llegará :risitas:
**Pero pufff… Aun así... Pero bueno para gustos... colores
La pega es que es un MAC y no tengo buscaminas >_<
Pero eso sí, acabe los 15 niveles del Tetris