8800GTS Primeras imagenes
-
En ese caso Javisoft los 150W idle y 250W full de la 8800GTX serían un disparate.
Exactamente, para mi la web que mejor se curra este aspecto es X-bit labs que mide directamente los amperios que consume la gráfica (como he indicado arriba):
Link de su ultimo review donden analizan la HD 2900Pro y la comparan con anteriores mediciones:http://www.xbitlabs.com/articles/video/display/radeon-hd2900pro_4.html#sect0
Por lo general el resto de sites comparan el consumo global con la misma configuración pero con distinta grafica, lo que permite saber más o menos si el consumo es mayor o menor pero desde luego eso no es nada exacto por lo mencionado de las curvas de rendimiento, ya que cada fuente es un mundo.
PD: Eso si, desde luego lo datos de los de expreview son imposibles lo mires como lo mires porque ese consumo global no se lo cree nadie y tampoco es el consumo de la grafica. :nono: (para mi que se los han inventado :risitas: :risitas: :risitas: )
-
Esos datos parecen mas reales y concuerdan con los que he dicho mas arriba.
-
espera un momento podria ser que sea por esto, ahora que recuerdo, en el edidor de mi suegro tienes que decirle si es un aparato standard o tipica A, B, C, D, E o puedes poner su nivel de eficiencia, en mi caso puse nivel de eficiencia 80% por que es una 80+, la fuente que prueban es una acbel r8 607 80+ segun la marca eficiencia 85%
podria ser que el medidor que usan de seasonic no contemple o no lo hayan ajustado para ello
podria ser esta la causa de sus lecturas, haber si mañana me acerco a casa de mi suegro y hago un prueba rapida cambiando el nivel de eficiencia ya que al medir antes de la fuente puede que al aparato este dando una lectura erronea por el mayor nivel de eficiencia de la fuente
-
Pues yo siempre he usado el Prime+3Dmark06 para el consumo y me acabo de quedar acojonado. Con el Prime+3Dmark me da 417 vatios mientras que con el Prime+ATI Tools me da 501 vatios
Hombre, no se como pones los parámetros del 3DMark06 pero lo normal es poner la maxima exigencia para este test y hacer currar la grafica como una cabrona para no estar limitado de CPU.
Luego si quieres poner el Prime a baja prioridad seria lo ideal para obtener el pico de consumo que puede dar la config.Lo digo por que en X-bit labs lo hacen así _"In 3D mode the cards were loaded by the first SM3.0/HDR test from the 3DMark06 suite running in a loop at 1600x1200 with 4x FSAA and 16x AF. The Peak 2D mode was emulated by means of the 2D Transparent Windows test from PCMark05"
_
Vamos, me extraña mucho lo del Atitools -
manuelor no se que habrán fumado cuando hacían la review pero no cuadran los datos, solo hay que mirar las mediciones de la HD 2600XT y la 8600GTS y comparar que en X-bit labs es la 8600GTS la que consume un poco menos pese que ambas están a la par.
Sin embargo en expreview es al revés y las diferencias son tanto en idle como en full demasiado grandes y la 8600GTS se dispara de consumo.
Esto yo diría es más bien culpa del Atitools, que no utiliza todo el potencial de la gráfica ya que los gráficos que genera son muy simples y dependiendo de los drivers o la arquitectura del chip gráfico es muy posible que haya partes de la GPU que no se usen.
-
expreview muestras las diferencias fisicas en el pcb entre la 8800gt y 8800gts g92
http://en.expreview.com/?p=75#more-75
http://www.expreview.com/news/hard/2007-12-03/1196676541d7147.htmlpor cierto esta mejora entre las 8800gt y gts que siguen el estandard de nvidia, se han visto en algunas 8800gt, normalmente las 8800gt tiene uno de dos fases, pero por ejemplo galaxy y gainward tiene modelos con 3 fases como la que lleva la 8800gts
-
Parece que NVIDIA descatalogará las GTX y GTS 640 en Enero. La verdad es que ahora carecen de sentido con la 8800GT y la GTS nueva. Ahora tocará esperar a la serie 9.
-
Ya me extrañaba a mi que continuaran en el mercado las "viejas" GTS y GTX… aunque como "estos" de las gráficas se estan dedicando desde hace tiempo a sacar un montón de modelos para confundir al consumidor tampoco sería de extrañar que no lo hicieran...
Si no fuera porque les sale caro de fabricar el G80 seguro que las dejaban en el mercado. A los que menos les tiene que gustar que descatalogen la GTS y GTX es a los proveedores y tiendas que tengan en Stock que se lo van a tener que regalar a los reyes magos jajaja.Saludos
-
-
bueno pues ya me a llegado la 8800gts 512mb como me prometieron
esta tarde me lio con las pruebas
8800gt vs 8800gts vs 8800gts new
Que bonita! a ver cuando puedo comprarme una…¿cuanto te costó?
Un saludo.
-
290€ precio de amigo con gastos de envio incluidos suopngo que en las tiendas estara por unos 300-320 o asi
-
307 En App
-
Pero no las sacaban a la venta el 11??
La verdad es que me encanta!!!
Manuelor, depende de los resultados de las pruebas que hagas me la compro o no me la compro, asi que curratelo eh! jejeje
SaludoS
-
Tiene buena pinta… haber si las versiones Overclockeadas se acercan a la 8800 Ultra
Esperemos también que haya más stock que de 8800GT -
Manuelor…estas mu callado...dime algo de la tarjeta que me estoy comiendo las uñas esperandola!!!
-
estamos esperando drivers buenos para probar en igualdad
un poco de paciencia que todo llega
-
Manuelor…estas mu callado...dime algo de la tarjeta que me estoy comiendo las uñas esperandola!!!
Ya somos dos!! :rolleyes:
Estoy deseando de ver esta rama cada vez que le doy a "Nuevos posts" para ver si se ven algunas pruebecillas de las GTS… Tengo miedo a que cuando salgan los resultados de las pruebas ya no quede mas stock :muerto:. jejejje
Saludos!
-
Pues la GTS tira igual que la GT a mismo clock, por si os sirve de consuelo xD
-
La unica diferencia entre la GT y la GTS aparte de los clocks son los shader no? 112 para la primera y 128 para la segunda, corregidme si me equivoco.
-
Así es, pero parece no afectar demasiado esa diferencia que digamos …