8800GTS Primeras imagenes
-
a ver…barre a la anterior gts de 320...pero no se aleja por mucho de la gt...solo son por drivers?? porque la diferencia economica sera mucha ( 50 euros min.) para pagar ese rendimiento
-
pon tambien que la mayoria de los usuarios de la gt, estan cambiando sus disipadores por que el que trae de serie es bastante malillo y si lo subes para que mantengan las temperaturas sobretodo con el crysis que la calienta bastante hace bastante ruido, al parecer las gts mejoran este punto con el nuevo ventilador y mantiene mejor las temperaturas con un ruido inferior por lo que la diferencia se acorta algo mas si con la gt te ves preocupado por als temperatura y le cambias el disipador a la gt y varias gt que he probado con el crysis se ponen ponerse a unos 80-85º sin oc
las review de tweaktown siempre las cojo con pinzas, por que muchas veces varian bastante de lo que riden en otras reviews o cuando las pruebas en casa con un equipo similar y mas que nada las considero una toma de contacto, haber que tardan en salir en otros sitios, por que como paso con las hd3870 TT fueron los primeros y despues hubio una desbordada de reviews de diferentes sitios
haber si krampak la prueba y nos comenta y al menos nos pone una captura del gpu-z por que en TT les estan pidiendo una captura del mismo y pasan olimpicamente del tema
-
asi que para comparar habria que sumar gt+disipador y sacaria un rendimiento algo superior no??
tio…tu estas todo el dia enchufado no???
-
jajaja, no estoy todo el dia enchufado lo que asa es que muchas veces de la ventana abierta con la web aunque no este delante
si la verdad es que yo recomendaria a los usuarios de las gt cambiar el disipador ya que pasas de 48-52º en idle y 74-90º en full dependiendo de el juego y ventilacion de la caja a uno 40-42 en idle y no mas de 50-60º en full dependiendo del disipador usado
-
Pues como no mejoren los resultados con drivers nuevos las gts nuevas se van a vender bastante poco creo yo. La Gt seguira siendo la reina de rendimiento/precio seguida de cerca por la HD 3780. Saludosssss.
-
no se a mi hay algunas cosas que no me cuadran en la review, el consumo en casi tdo los sitios dicen que la 8800gt consume menos de la gts de 320mb y aqui es alreves, yo esperaba un consumo simlar a el de las actuales gts ya que tienen un consumo de 140w ambas tanto la g92 gts como la g80gts, pero la review no solo no dice eso si no que la gt tambien consume mas :vayatela:, cualgan test que se ve claramente que les esta fallado algo,como enel test del wic, en el test del crisis usan una 8800gts diferente ¿? en el resto usan un palit y en el crisis una xfxx 8800gt xxx de 320mb ¿?, cuelgan una imagen del 3dmark y no muestran la parte del la cpu y la grafica
para colmo, en pconline comentan que han borrado los post que habian en los comentarios de la review, cuando un usuario a mostrado los imagenes que ellos decian que eran las de su review y unas cuantas mas y a pedido que enseñen una donde aparezca el numero de serie que ha en la parte trasera del pbc asi como el ID del gpu-z :vayatela:
si ya las ultimas reviews hechas en tweaktown son algo dudasas viendo los resultados de los mismos compoenetes en otras reviews, esta se va a llevar la palma
-
La verdad es que mirandolo bien tiene cosas muy dudosas, a mi me extraño mucho el consumo y la poca diferencia con la GT, en teoria y sobre el papel deberia andar entre una GTx y una Ultra. En fin habra que esperar a que salgan review en condiciones.
-
expreview muestra las pruebas de consumo de su futura review y al verdad es que varia bastante de lo que comentaron en tweaktown y se acercan a lo que se presuponia de ellas un consumo simialr ya que ambas tiene un consumo maxximo de 140w a las 8800gts g80 pero mayor claro esta que la 8800gt
-
Eso parece mas logico, esperemos que sea asi.
-
Esos consumos no son nada verosímiles.
Lo digo porque parece que con una fuente de 250W vamos sobrados para un equipo High end.
Eso sin contar que están usando el Atitools para poner esa grafica a tope, cuando como mínimo habría que usar un 3Dmark para meter a tope la GDRAM, la GPU, el proce y las memos.
Anda que no hay diferencia ni nada.
Eso si para ser rigurosamente excrupulosos deberían de medir directamente con un amperimetro en el conector PCIe y en la ranura de expansión (hay que chapucear soldaduras en el PCB), pues de este modo sabe uno exactamente cuanto consume una gráfica sin tener en cuenta el rendimiento de la fuente de alimentación. Lo que puede provocar que se obtengan datos que no cuadran (que exista mayor diferencia de la que hay realmente o al revés ) por culpa de las curvas de rendimiento de la PSU.
PD: A mi la review de tweaktown me cuadra mucho más y sino que alguien con un SAI o un medidor de consumos verifique con el Atitools y con 3DMark la diferencia de consumo e igual se lleva un chasco. Por eso a mi el Atitools no me vale de nada para saber si el OC de la gráfica es estable :nono:
-
Pues yo siempre he usado el Prime+3Dmark06 para el consumo y me acabo de quedar acojonado. Con el Prime+3Dmark me da 417 vatios mientras que con el Prime+ATI Tools me da 501 vatios
De todos modos si en todas las gráficas han usado el mismo equipo con la misma configuración, aunque usen solo el ATI Tool para obtener el consumo (sin cargar más de un 1 core a la CPU con ello) los porcentajes son igual de válidos que un 3DMark, no ?
Lo que no cuadra son esos consumos tan bajos, si yo con la 8800GTX en reposo (ni CPU ni GPU) me da 230W.
-
si puede ser con el aparato que midan de unos consumos bajos, pero el caso es que todos son provados con el mismo sistema usan "Seasonic’s Power angel" http://www.bigbruin.com/reviews/powerangel/
en guru3d tambien les da unos consumos bajos, en casa tenia uno parecido al que usan en guru3d, de mi suegro de esos que se ponen entre el enchufe y el cable de la torre
de hecho el otro dia se lo pedi para ver la diferenca de consumo y la 8800gt y 8800gts y eso que la 8800gt que tengo es una version oc de xfx la xxx, por eso no me cuadra el consumo de tweaktown ya que indica que la 8800gts consume menos que la gt
en concreto que todabia lo tengo apuntado
xfx 8800gts 320mb idle: 192w full 366w
xfx 8800gts 640mb idle: 193w full 368w
xfx 8800gt xxx: idle: 189w full 341w -
Yo entiendo que las graficas estas dan los resultados del consumo de las graficas unicamente, no del sistema entero, por mucho que ponga total system, pk si me dicen que la carga de un sistema en total son esos valores, se les podria caer la cara de verguenza por mentirosos. En idle podria colar pero en full? Nop, por eso entiendo que los valores son el consumo de la grafica unicamente son muy pocos watios, pk un equipo en full con 200 y pico watios con gtx y gts?
-
En ese caso Javisoft los 150W idle y 250W full de la 8800GTX serían un disparate.
-
Edito: Pues ahora no se si son 200 y pico en idle y 300 en full, o como yo habia dicho <:( .
Edito 2: Segun esta pagina:
http://web.aanet.com.au/SnooP/psucalc.php
me sale un consumo maximo de casi 264w con mi gts, con una gtx me salen 30w mas, lo veo poco, que pensais?
Edito 3: El consumo de la GTX es 131 y el de la gts 105 segun lo que pone ahi.
-
En ese caso Javisoft los 150W idle y 250W full de la 8800GTX serían un disparate.
Exactamente, para mi la web que mejor se curra este aspecto es X-bit labs que mide directamente los amperios que consume la gráfica (como he indicado arriba):
Link de su ultimo review donden analizan la HD 2900Pro y la comparan con anteriores mediciones:http://www.xbitlabs.com/articles/video/display/radeon-hd2900pro_4.html#sect0
Por lo general el resto de sites comparan el consumo global con la misma configuración pero con distinta grafica, lo que permite saber más o menos si el consumo es mayor o menor pero desde luego eso no es nada exacto por lo mencionado de las curvas de rendimiento, ya que cada fuente es un mundo.
PD: Eso si, desde luego lo datos de los de expreview son imposibles lo mires como lo mires porque ese consumo global no se lo cree nadie y tampoco es el consumo de la grafica. :nono: (para mi que se los han inventado :risitas: :risitas: :risitas: )
-
Esos datos parecen mas reales y concuerdan con los que he dicho mas arriba.
-
espera un momento podria ser que sea por esto, ahora que recuerdo, en el edidor de mi suegro tienes que decirle si es un aparato standard o tipica A, B, C, D, E o puedes poner su nivel de eficiencia, en mi caso puse nivel de eficiencia 80% por que es una 80+, la fuente que prueban es una acbel r8 607 80+ segun la marca eficiencia 85%
podria ser que el medidor que usan de seasonic no contemple o no lo hayan ajustado para ello
podria ser esta la causa de sus lecturas, haber si mañana me acerco a casa de mi suegro y hago un prueba rapida cambiando el nivel de eficiencia ya que al medir antes de la fuente puede que al aparato este dando una lectura erronea por el mayor nivel de eficiencia de la fuente
-
Pues yo siempre he usado el Prime+3Dmark06 para el consumo y me acabo de quedar acojonado. Con el Prime+3Dmark me da 417 vatios mientras que con el Prime+ATI Tools me da 501 vatios
Hombre, no se como pones los parámetros del 3DMark06 pero lo normal es poner la maxima exigencia para este test y hacer currar la grafica como una cabrona para no estar limitado de CPU.
Luego si quieres poner el Prime a baja prioridad seria lo ideal para obtener el pico de consumo que puede dar la config.Lo digo por que en X-bit labs lo hacen así _"In 3D mode the cards were loaded by the first SM3.0/HDR test from the 3DMark06 suite running in a loop at 1600x1200 with 4x FSAA and 16x AF. The Peak 2D mode was emulated by means of the 2D Transparent Windows test from PCMark05"
_
Vamos, me extraña mucho lo del Atitools -
manuelor no se que habrán fumado cuando hacían la review pero no cuadran los datos, solo hay que mirar las mediciones de la HD 2600XT y la 8600GTS y comparar que en X-bit labs es la 8600GTS la que consume un poco menos pese que ambas están a la par.
Sin embargo en expreview es al revés y las diferencias son tanto en idle como en full demasiado grandes y la 8600GTS se dispara de consumo.
Esto yo diría es más bien culpa del Atitools, que no utiliza todo el potencial de la gráfica ya que los gráficos que genera son muy simples y dependiendo de los drivers o la arquitectura del chip gráfico es muy posible que haya partes de la GPU que no se usen.