Radeon HD5850/5870
-
Pues si que tiene que estar bien jugar con 3 monitores en vertical T_T
Si la HD4870x2 bajara de 300€ os la cojeriais? o iriais por la HD5870. De momento estan parejas pero yo creo que cuando los drivers dejen de estar verdes la superara de mas.Prefiero la HD5870. ;);)
-
Me parece que estamos llegando al tope de tamaño/consumo en gráficas, hay que empezar a reducirlo porque no es lógico tener que disipar 300-400W para una sola gráfica. Va a pasar como con los procesadores que estaban consumiendo 120W con un solo núcleo y tuvieron que cambiar de planteamiento, y ahora consumen al rededor de 30-40W por núcleo.
Lo que si me gusta es el display port.
Y yo me quedo con la 5850, por precio dudo que compense ahora mismo la 70. Y las X2 tampoco las veo necesarias.
-
Una cosa para los que queráis compraros la 5850… la proporción, al menos en las primeras tandas de tarjetas, va a ser de 3 a 1 en número de 5970-5850. Como no tengáis cuidado, va a ser complicado conseguirlas en los primeros meses, ATI quiere aprovechar que tiene ventaja estratégica al sacar la tarjeta antes.
Teóricamente tiene muy buena pinta, parece que los drivers están tirando algo hacia abajo de ellas, solo hay que comprobar cómo la diferencia de rendimiento es muy superior en juegos "poco utilizados en reviews" respecto a los comunes en estos análisis, pero no quiero especular sin saber más de las tarjetas de nVidia ya que nos pueden sorprender. El problema es que la gente ya no se acuerda de cuando no había crossfire/SLI, que un aumento en una generación del 40%-50% nos parecía la leche (GF3 a GF4, 6800 a 7800) y en algunos casos incluso menos (GF2Ultra a GF3), y hay muchos que están decepcionados con el aumento de rendimiento, pero con mejoras en drivers, la cosa tiene que ir distanciándose poco a poco. Y no olvidemos DX11, que va a ser algo muy gordo, no a corto plazo, pero a medio-largo plazo va a ser una revolución tan grande como de DX8 a DX9. La libertad que dan los compute shaders (OpenCL, Direct Compute) va a permitir que veamos cosas muy interesantes.
Ah, ya tenemos el primer juego en el que tener DX11 permite un aumento de rendimiento considerable. En BattleForge, con DX11 se consigue un aumento de rendimiento del filtro SSAO al aplicarlo con compute shaders (DX11) respecto a aplicarlo mediante pixel shaders (DX10) de hasta un 38%:
Beyond3D Forum - View Single Post - AMD: R8xx Speculation
(Demirug es el director de proyecto del motor gráfico del juego, así que es una fuente "fiable"
nVidia tiene que ponerse las pilas, la competencia nos beneficia para que bajen los precios…
PS: Tengo una tarjeta nVidia, pero tengo preferencias por ATI, así que tened esto en cuenta siempre que escriba algo. Soy bastante parcial, y ya me metí toñas muy gordas como al recomendar las X1800, que en teoría prometían muchísimo, y en la práctica eran unas castañas de la leche :risitas:
-
Nvidia tiene problemas de fabricación con el g300.
La tasa de defectos es un factor importante en el precio y disponibilidad de hardware que muchas veces es pasado por alto. El uso de silicio en la fabricación de hardware está lejos de ser perfecto y con las técnicas actuales se desperdicia mucho material. Nvidia conoce muy bien esto y los están experimentado en carne propia una alta tasa de defectos con su tarjeta grafica GT300.Según rumores la GT300 debería salir al mercado más adelante este año pero si estos reportes son verdad y AMD no enfrenta una situación similar con su serie HD 5800, Nvidia podría estar en serios problemas. Esta nueva tarjeta es clave para enfrentar los ofrecimientos de AMD y si no la sacan a tiempo el camino estará libre para que la competencia continúe avanzando.
Las altas tasas de fallas no siempre afectan de manera negativa el mercado. Cuando Intel comenzó a ver problemas con el complejo cache L2 de los primeros Pentium 2, la compañía decidió desactivar el cache y vender los procesadores de todas maneras – aquí es donde aparecieron los Celeron. Poner otra marca a los procesadores defectuosos y venderlos como una opción menos potente se ha convertido una práctica común, pero difícilmente es una opción para Nvidia.
Esto lo he leido por aí y la verdad ya no me creo nada. En algunos sitios dicen que Nvidia asegura chafar a ATi y su HD5870 con el GT300, que sera un cambio parecido al del g80 y cosas asi. Estoy un poco mosca porque tengo mucha mala suerte y en menos de un mes tengo que comprar el pc como mucho tardar y pensaba cojer la ATI 5870 y seguro que salen raras xD.
-
Probablemente ATi está amortizando ahora el calvario que pasó con los defectos de fabricación de chips de su serie HD4700, con la que recordemos pretendía inundar el mercado con precios muy agresivos, pero los enormes costes debidos a los retrasos de los chapuceros de TSMC se lo impideron :vayatela:
Ahora NVIDIA es la perjudicada, aunque puede permitirse el lujo de aguantar un poco más, bajando precios de sus GTX285 y GTX295, cuando saquen el famoso Hemlock (HD5800x2)
Salu2!
-
Probablemente ATi está amortizando ahora el calvario que pasó con los defectos de fabricación de chips de su serie HD4700, con la que recordemos pretendía inundar el mercado con precios muy agresivos, pero los enormes costes debidos a los retrasos de los chapuceros de TSMC se lo impideron :vayatela:
Ahora NVIDIA es la perjudicada, aunque puede permitirse el lujo de aguantar un poco más, bajando precios de sus GTX285 y GTX295, cuando saquen el famoso Hemlock (HD5800x2)
Salu2!
Como las baje más de precio va a empeza a perder dinero por tarjeta vendida, la GTX285 es bastante cara de fabricar, entre el chip descomunal y el bus de memoria de 512 bits.
Yo creo que ATI puede tener bajo la manga una HD5890, tal vez con un bus de memoria de 320 o 384 bits para cuando nVidia saque el GT300. Que aunque parezca que la HD5870 rinde mucho, en realidad está bastante limitada de ancho de banda, al subir de frecuencia las memorias el rendimiento aumenta bastante y es la principal razón de que la HD4870 x2 rinda más que la HD5870 en algunos juegos (además de los drivers).
Hay que tener en cuenta que por ejemplo la HD4890 tiene memorias a 3,9Ghz, y esta HD5870 las tiene a 4,8Ghz, hablando por lo bajo, son 250mhz aproximadamente de aumento de velocidad en los chips de memoria (250 x 4 por ser GDDR5) y en potencia de computación es algo más del doble de potente que cada chip de la x2.
-
Entonces compensaria más comprarse una 4890 X2, que una 5870, no?? Aunque lo que vale la primera…. :vayatela:
Y por que a la 5870, le ponen el ancho de banda tan bajo?
-
Yo me iría por la 5870, ya que es ultima tecnología (40nn) y no cogería la 4890 ya que es doble consumo y nunca podrás ampliar, en cambio con la 5870, el dia que te aburras montas un crossfire y a tirar…
-
Entonces compensaria más comprarse una 4890 X2, que una 5870, no?? Aunque lo que vale la primera…. :vayatela:
Y por que a la 5870, le ponen el ancho de banda tan bajo?
Para ahorrar costes. Si se ven en necesidad de sacar una tarjeta más potente, pues suben frecuencias y voltajes, le meten un bus un poco mayor y ale, ya tienen un 20-25% más de rendimiento por la patilla.
Yo sigo prefiriendo una HD5870 que un CrossFire o una HD4870 x2, a pesar de todo esto.
-
Entonces con un poco de OC y subirle los voltajes a la hd5870 tendriamos un tarjeton invatible no?
Nosé donde lei que pusieron una HD5870 de asus con un poco de voltaje a mas de 1050/5200 y que el rendimiento era brutal.Me imagino una HD5870 DDR5 de 512 bits y se me cae la baba
-
Lo leiste en el #57, además hacían que la 5850 con OC puliera a la 5870 y que estas dos con OC tenían muy poca diferencia a pesar de los 1440 shaders de la 5850. Todo ello con asus.xD
-
Lo leiste en el #57, además hacían que la 5850 con OC puliera a la 5870 y que estas dos con OC tenían muy poca diferencia a pesar de los 1440 shaders de la 5850. Todo ello con asus.xD
Si asi es. Las dos con el maximo de OC se quedaban en un 5% de diferencia o así
-
Para ahorrar costes. Si se ven en necesidad de sacar una tarjeta más potente, pues suben frecuencias y voltajes, le meten un bus un poco mayor y ale, ya tienen un 20-25% más de rendimiento por la patilla.
Ok, Gracias por la aclaración.;)
Yo sigo prefiriendo una HD5870 que un CrossFire o una HD4870 x2, a pesar de todo esto.
Ok, tomo nota.
Aquí hay opiniones para dar y tomar, puff el que busque una gráfica y tal… vaya lío, jeje -
Si asi es. Las dos con el maximo de OC se quedaban en un 5% de diferencia o así
Pues entonces vale más la pena casi comprar la 5850, que la superior, no? Si solo hay una diferencía de un 5%, en fps, aopenas se aprecia…
bufff menudo lío :eoh:
-
Yo tengo que acerme con una HD5870 que con una Intel GMA950 que estoy tirando ahora me voy a suicidar xD llevo ya mas de 1 mes asi T_T
Y si te digo la verdad lo unico que me da miedo es el GT300 porque especulan de un ancho de banda de 250gb/s o mas
Edito: El 5% de diferencia es en las frecuencias, as de tener en cuenta que la HD 5850 esta recortada de mas cosas que de largo como de SP entre otras cosas. -
Yo tengo que acerme con una HD5870 que con una Intel GMA950 que estoy tirando ahora me voy a suicidar xD llevo ya mas de 1 mes asi T_T
Hombre al solitario y al buscaminas, creo que te llegará :risitas:
Edito: El 5% de diferencia es en las frecuencias, as de tener en cuenta que la HD 5850 esta recortada de mas cosas que de largo como de SP entre otras cosas.
Pero pufff… Aun así... Pero bueno para gustos... colores
-
**Hombre al solitario y al buscaminas, creo que te llegará :risitas:
**Pero pufff… Aun así... Pero bueno para gustos... colores
La pega es que es un MAC y no tengo buscaminas >_<
Pero eso sí, acabe los 15 niveles del Tetris -
La pega es que es un MAC y no tengo buscaminas >_<
Pero eso sí, acabe los 15 niveles del TetrisAhh ostras no lo sabía, sorry. Y perdón por el Spam.
Volviendo al tema, que fuente necesitaría dicha gráfica para moverse bien? Con una de 600W, estaría bien?
-
No tienes que disculparte no as exo nada malo xD
Yo minimo pondria una OCZ 600W o similares. Pero ya puestos una Corsair TX650W seria perfecto. Lo importante son los amperios. Yo en mi presupuesto me he puesto una Corsair TX850 que aunque excesivo es pensando en un futuro. -
No tienes que disculparte no as exo nada malo xD
Yo minimo pondria una OCZ 600W o similares. Pero ya puestos una Corsair TX650W seria perfecto. Lo importante son los amperios. Yo en mi presupuesto me he puesto una Corsair TX850 que aunque excesivo es pensando en un futuro.De cuantos amperios estamos hablando?? o aún no se sabe??
Por cierto, el que comentaba de las gráficas Asus. He encontrado info…
Con la reciente llegada de las nuevas gráficas dx11 por parte de ATI, ASUS lanzará varios modelos (2 5870 y 2 5850) con OC de serie, gracias a la característica del voltaje ajustable, ya presente en las ultimas gráficas de ASUS
En el caso de la 5870 llega hasta 1035mhz el nucleo de la gpu (850mhz es el valor de referencia) y 5200mhz en la memoria (siendo 4800 el de referencia)En la 5850, la versión de ASUS saldrá con unos valores de 1050mhz nucleo / 5200mhz memoria (valores de referencia: 725/4000 respectivamente)
todo esto subiendo el voltaje de 1,15v a 1,35v
En los resultados se puede apreciar que una 5850 con este overclock, superaría a una 5870 sin overclock:
una 5870 normal saca unos 8087 puntos en 3dmark vantage, y la version OC de ASUS 9252
mientras que en la 5850 se pasaría de 6500 puntos a 8987 en la version de ASUS, superando asi a la 5870 de serie.
Estos datos dan a entender que la gpu 5850 es una muy buena opción en cuanto a capacidad de overclock se refiere.