Radeon HD5850/5870
-
Pues habrá que comprar este año algo gordo y dure un par de años al menos que el añoq ue viene nos clavan 18% de I.V.A vamos a fliparrr XD.
-
Si el consumismo no me puede o me toca la primi, creo que seguire con mi tarjeta, un par de añitos…
-
Hombre winters tu x2 tiene para tiempo esa doble gpu tirara como un demonio.
-
Lo que me queda claro es una cosa. ASUS Voltage Tweak. No compreis otra que no sea asus, esta claro que cuando pase el tiempo y te aburras puedes hacer que la 5850 funda a la 5870 y todo ello con el OC y el Voltage Tweak.
-
Pues la asus muy bonita pero que precio de momento la he visto en pccomponentes:
Asus Radeon HD 5870 1G GDDR5 EAH5870/G/2DIS/1GD5/A - Tarjeta Gráfica 369€P.D
Vaya con al imagen de lso amigos de n3D enorme!!!.
-
También está en Izarmicro y solo vale 4€ más. A la espera de que salga la 5850 de asus en Izarmicro.
-
Que pequeña, no? No sé como pueden hacer semejante bestialidad y cuando saquen la generación 6XXX que le tienes que quitar el frontal de la torre para meter la gráfica? :dormido:
-
También está en Izarmicro y solo vale 4€ más. A la espera de que salga la 5850 de asus en Izarmicro.
Si es por temas de OC en mi opinion la Asus no compensa.
El problema esta en el CCC que no deja subir de 900Mhz de core.
Seguramente en proximos CCC o en cuanto se actualice el Rivatunery similares se puedan Ocear mejor.
Y si miras ahora el precio de la Asus te llevaras una grata sorpresa 337€.
Ya habia avisado de la primera bajada en Izar para todas las 5870. -
pues ya las tienen en portugal por:
Sapphire Ati HD5850 1GB GDDR5 PCI-E 231.5 euros
I/O Output: Dual DL-DVI-I+DP+HDMI, Triple Display Support
Core Clock: 725 MHz
Memory Clock: Effective 4000 MHz
PCI Express 2.0 x16 bus interface
1024MB /256bit GDDR5 memory interface
Dual Slot Cooler with Auto Fan Control, 2 Ball Bearing
On-board HDMI, supports HDMI 1.3 with High Bitrate Audio
On-board DisplayPort
Sapphire Ati HD5870 1GB GDDR5 PCI-E 336.9 euros
ore Clock: 850 MHz
Memory Clock: Effective 4800 MHz
PCI Express 2.0 x16 bus interface
1024MB /256bit GDDR5 memory interface
Dual Slot Cooler with Auto Fan Control, 2 Ball Bearing
On-board HDMI, supports HDMI 1.3 with High Bitrate Audio
On-board DisplayPortsaludos
-
bueno pues algún dato más en traficantes de harware que he encontrado de la x2.
Traficantes de Hardware - AMD nos deja ver su esperadísima Radeon HD 5870 X2Si Nvidia no está llorando ya tras el lanzamiento de la serie HD 5800, de seguro que va a empezar a derramar una lágrima o dos. Mientras que la Radeon HD 5870 y la HD 5850 están ya de camino hacia las tiendas, AMD nos deja ver por primera vez su próxima tarjeta de gama alta de doble GPU, la Radeon HD 5870 X2.
Esperando que hagan su debut en noviembre, la Radeon HD 5870 X2 (nombre en clave Hemlock) cuenta con dos GPUd Cypress 40nm, es CrossFireX-ready, tiene una interfaz de memoria 2x256 bits, y requiere tomas de alimentación adicional a través de un conector PCIe de 6 y otro de 8 pines. La tarjeta contará con 3.200 Stream Processors, pero sus relojes para GPU y memoria son todavía desconocidos, ya que debido a sus altos requisitos de potencia y disipación de calor, no pueden llegar a 850/4800 MHz, como la single GPU HD 5870.
a Radeon HD 5870 X2 está previsto que cuente con un precio de $ 500. Parece que va haber que ahorrar para estas navidades. /
y yo os pregunto que conexiones son esas de la imagen de abajo:
supongo será uan coña o algo por el estilo o algo muy nuevo a ver si sabeís decirme.Por cierto gigabyte tambien se une a ATI:
-
Esa imagen que has puesto es una Six (HD5870 Six), y esos conectores son display port (para poder conectar 6 monitores o más).
En teoría, la HD5870 x2 no tiene dos chips separados, sino dos gpus pegadas en el mismo encapsulado a lo Pentium D o Core 2 Quad, a no ser que ATI haya cambiado de opinion y no lo quiera hacer asi.
-
Pues si que tiene que estar bien jugar con 3 monitores en vertical T_T
Si la HD4870x2 bajara de 300€ os la cojeriais? o iriais por la HD5870. De momento estan parejas pero yo creo que cuando los drivers dejen de estar verdes la superara de mas. -
Pues si que tiene que estar bien jugar con 3 monitores en vertical T_T
Si la HD4870x2 bajara de 300€ os la cojeriais? o iriais por la HD5870. De momento estan parejas pero yo creo que cuando los drivers dejen de estar verdes la superara de mas.Prefiero la HD5870. ;);)
-
Me parece que estamos llegando al tope de tamaño/consumo en gráficas, hay que empezar a reducirlo porque no es lógico tener que disipar 300-400W para una sola gráfica. Va a pasar como con los procesadores que estaban consumiendo 120W con un solo núcleo y tuvieron que cambiar de planteamiento, y ahora consumen al rededor de 30-40W por núcleo.
Lo que si me gusta es el display port.
Y yo me quedo con la 5850, por precio dudo que compense ahora mismo la 70. Y las X2 tampoco las veo necesarias.
-
Una cosa para los que queráis compraros la 5850… la proporción, al menos en las primeras tandas de tarjetas, va a ser de 3 a 1 en número de 5970-5850. Como no tengáis cuidado, va a ser complicado conseguirlas en los primeros meses, ATI quiere aprovechar que tiene ventaja estratégica al sacar la tarjeta antes.
Teóricamente tiene muy buena pinta, parece que los drivers están tirando algo hacia abajo de ellas, solo hay que comprobar cómo la diferencia de rendimiento es muy superior en juegos "poco utilizados en reviews" respecto a los comunes en estos análisis, pero no quiero especular sin saber más de las tarjetas de nVidia ya que nos pueden sorprender. El problema es que la gente ya no se acuerda de cuando no había crossfire/SLI, que un aumento en una generación del 40%-50% nos parecía la leche (GF3 a GF4, 6800 a 7800) y en algunos casos incluso menos (GF2Ultra a GF3), y hay muchos que están decepcionados con el aumento de rendimiento, pero con mejoras en drivers, la cosa tiene que ir distanciándose poco a poco. Y no olvidemos DX11, que va a ser algo muy gordo, no a corto plazo, pero a medio-largo plazo va a ser una revolución tan grande como de DX8 a DX9. La libertad que dan los compute shaders (OpenCL, Direct Compute) va a permitir que veamos cosas muy interesantes.
Ah, ya tenemos el primer juego en el que tener DX11 permite un aumento de rendimiento considerable. En BattleForge, con DX11 se consigue un aumento de rendimiento del filtro SSAO al aplicarlo con compute shaders (DX11) respecto a aplicarlo mediante pixel shaders (DX10) de hasta un 38%:
Beyond3D Forum - View Single Post - AMD: R8xx Speculation
(Demirug es el director de proyecto del motor gráfico del juego, así que es una fuente "fiable"
nVidia tiene que ponerse las pilas, la competencia nos beneficia para que bajen los precios…
PS: Tengo una tarjeta nVidia, pero tengo preferencias por ATI, así que tened esto en cuenta siempre que escriba algo. Soy bastante parcial, y ya me metí toñas muy gordas como al recomendar las X1800, que en teoría prometían muchísimo, y en la práctica eran unas castañas de la leche :risitas:
-
Nvidia tiene problemas de fabricación con el g300.
La tasa de defectos es un factor importante en el precio y disponibilidad de hardware que muchas veces es pasado por alto. El uso de silicio en la fabricación de hardware está lejos de ser perfecto y con las técnicas actuales se desperdicia mucho material. Nvidia conoce muy bien esto y los están experimentado en carne propia una alta tasa de defectos con su tarjeta grafica GT300.Según rumores la GT300 debería salir al mercado más adelante este año pero si estos reportes son verdad y AMD no enfrenta una situación similar con su serie HD 5800, Nvidia podría estar en serios problemas. Esta nueva tarjeta es clave para enfrentar los ofrecimientos de AMD y si no la sacan a tiempo el camino estará libre para que la competencia continúe avanzando.
Las altas tasas de fallas no siempre afectan de manera negativa el mercado. Cuando Intel comenzó a ver problemas con el complejo cache L2 de los primeros Pentium 2, la compañía decidió desactivar el cache y vender los procesadores de todas maneras – aquí es donde aparecieron los Celeron. Poner otra marca a los procesadores defectuosos y venderlos como una opción menos potente se ha convertido una práctica común, pero difícilmente es una opción para Nvidia.
Esto lo he leido por aí y la verdad ya no me creo nada. En algunos sitios dicen que Nvidia asegura chafar a ATi y su HD5870 con el GT300, que sera un cambio parecido al del g80 y cosas asi. Estoy un poco mosca porque tengo mucha mala suerte y en menos de un mes tengo que comprar el pc como mucho tardar y pensaba cojer la ATI 5870 y seguro que salen raras xD.
-
Probablemente ATi está amortizando ahora el calvario que pasó con los defectos de fabricación de chips de su serie HD4700, con la que recordemos pretendía inundar el mercado con precios muy agresivos, pero los enormes costes debidos a los retrasos de los chapuceros de TSMC se lo impideron :vayatela:
Ahora NVIDIA es la perjudicada, aunque puede permitirse el lujo de aguantar un poco más, bajando precios de sus GTX285 y GTX295, cuando saquen el famoso Hemlock (HD5800x2)
Salu2!
-
Probablemente ATi está amortizando ahora el calvario que pasó con los defectos de fabricación de chips de su serie HD4700, con la que recordemos pretendía inundar el mercado con precios muy agresivos, pero los enormes costes debidos a los retrasos de los chapuceros de TSMC se lo impideron :vayatela:
Ahora NVIDIA es la perjudicada, aunque puede permitirse el lujo de aguantar un poco más, bajando precios de sus GTX285 y GTX295, cuando saquen el famoso Hemlock (HD5800x2)
Salu2!
Como las baje más de precio va a empeza a perder dinero por tarjeta vendida, la GTX285 es bastante cara de fabricar, entre el chip descomunal y el bus de memoria de 512 bits.
Yo creo que ATI puede tener bajo la manga una HD5890, tal vez con un bus de memoria de 320 o 384 bits para cuando nVidia saque el GT300. Que aunque parezca que la HD5870 rinde mucho, en realidad está bastante limitada de ancho de banda, al subir de frecuencia las memorias el rendimiento aumenta bastante y es la principal razón de que la HD4870 x2 rinda más que la HD5870 en algunos juegos (además de los drivers).
Hay que tener en cuenta que por ejemplo la HD4890 tiene memorias a 3,9Ghz, y esta HD5870 las tiene a 4,8Ghz, hablando por lo bajo, son 250mhz aproximadamente de aumento de velocidad en los chips de memoria (250 x 4 por ser GDDR5) y en potencia de computación es algo más del doble de potente que cada chip de la x2.
-
Entonces compensaria más comprarse una 4890 X2, que una 5870, no?? Aunque lo que vale la primera…. :vayatela:
Y por que a la 5870, le ponen el ancho de banda tan bajo?
-
Yo me iría por la 5870, ya que es ultima tecnología (40nn) y no cogería la 4890 ya que es doble consumo y nunca podrás ampliar, en cambio con la 5870, el dia que te aburras montas un crossfire y a tirar…